Connecteu-vos amb nosaltres

La tecnologia informàtica

OASI, el primer motor de cerca que troba els algoritmes que els governs i les empreses fan servir als ciutadans

COMPARTIR:

publicat

on

Utilitzem el vostre registre per proporcionar contingut de la manera que heu consentit i per millorar la nostra comprensió de vosaltres. Podeu donar-vos de baixa en qualsevol moment.

  • Creat per la Fundació Eticas, l'Observatori d'Algoritmes amb Impacte Social, OASI, recopila informació de desenes d'algorismes utilitzats per les administracions públiques i empreses de tot el món per obtenir més informació sobre el seu impacte social.
  • L'objectiu és donar accés públic a la informació tant dels governs com dels algoritmes de les empreses, i saber qui les utilitza, qui les desenvolupa, quines amenaces representen i si han estat auditades, entre altres característiques.
  • El biaix i la discriminació d’algoritmes solen produir-se en funció de l’edat, el gènere, la raça o la discapacitat, entre altres valors, però a causa de la manca de transparència general, encara no és possible conèixer totes les seves conseqüències en els grups afectats.

La Fundació Eticas, una organització sense ànim de lucre que promou l’ús responsable d’algoritmes i sistemes d’intel·ligència artificial (IA), ha creat l’Observatori d’Algoritmes amb Impacte Social (OASI). Aquest observatori introdueix un motor de cerca per conèixer més sobre les eines que prenen decisions automatitzades importants sobre ciutadans, consumidors i usuaris de tot el món.

Actualment, tant les empreses com les administracions públiques automatitzen les decisions gràcies als algorismes. Malgrat això, el seu desenvolupament i posada en servei no segueixen els controls de qualitat externs, ni tampoc és tan transparent com hauria de ser, cosa que deixa la població desprotegida. Amb aquest motor de cerca, tothom pot obtenir més informació sobre aquests algorismes: qui els ha desenvolupat, qui els utilitza, el seu àmbit d’aplicació, si han estat auditats, els seus objectius o el seu impacte social i les amenaces que representen.

Ara mateix, OASI recopila 57 algorismes, però espera arribar als 100 en els mesos següents. Entre ells, 24 ja estan sent aplicats als EUA per empreses governamentals i de Big Tech. Per exemple, ShotSpotter, una eina d’algoritme desplegada pel Departament de Policia d’Oakland per combatre i reduir la violència amb armes de foc mitjançant micròfons de control de so, i un algorisme per predir el possible abús i negligència infantil utilitzat pel comtat d’Allegheny, Pennsilvània. Un altre exemple d’una empresa és Rekognition, el sistema de reconeixement facial d’Amazon, que va ser auditat pel MIT Media Lab a principis del 2019 i que va trobar un rendiment substancialment pitjor en identificar el gènere d’una persona si era femení o de pell més fosca.

La discriminació més freqüent és per raó d’edat, gènere, raça o discapacitat, produït sense voler per desenvolupadors que no tenen habilitats socioeconòmiques per entendre l’impacte d’aquesta tecnologia. En aquest sentit, aquests enginyers dissenyen els algoritmes basant-se només en habilitats tècniques i, com que no hi ha controls externs i sembla que funciona com s’esperava, l’algoritme continua aprenent a partir de dades deficients.

Atesa la manca de transparència sobre el funcionament d'alguns d'aquests algoritmes, la Fundació Eticas, a part del llançament d'OASI, està desenvolupant un projecte d'auditories externes. El primer és VioGén, l'algorisme utilitzat pel ministeri de l'Interior espanyol per assignar risc a les dones que busquen protecció després de patir casos de violència domèstica. Eticas realitzarà una auditoria externa mitjançant dades administratives i d’enginyeria inversa, entrevistes, informes o scripts de disseny, per recollir resultats a escala. Tot això amb l'objectiu de detectar oportunitats de millora en la protecció d'aquestes dones.

"Tot i l'existència de mètodes algorítmics de control i auditoria per garantir que la tecnologia respecta la normativa i els drets fonamentals vigents, l'Administració i moltes empreses continuen fent oïdes sordes a les sol·licituds de transparència dels ciutadans i les institucions", va declarar Gemma Galdon, fundadora de la Fundació Eticas. . “A més d’OASI, després de diversos anys en què hem desenvolupat més d’una dotzena d’auditories per a empreses com Alpha Telefónica, les Nacions Unides, Koa Health o el Banc Interamericà de Desenvolupament, també hem publicat una Guia d’Auditoria Algorítmica. que qualsevol persona els pugui realitzar. L’objectiu sempre és sensibilitzar, proporcionar transparència i restablir la confiança en la tecnologia, que per si mateixa no ha de ser perjudicial ”.

En aquest sentit, els algoritmes que s’entrenen amb tècniques d’aprenentatge automàtic mitjançant una gran quantitat de dades històriques per “ensenyar-los” a triar en funció de decisions passades. Normalment, aquestes dades no són representatives de la realitat socioeconòmica i cultural sobre la qual s’apliquen, però en moltes ocasions reflecteixen una situació injusta que no es pretén perpetuar. D'aquesta manera, l'algoritme seria tècnicament prendre decisions "correctes" d'acord amb la seva formació, tot i que la realitat és que les seves recomanacions o prediccions són esbiaixades o discriminades.

anunci

Sobre la Fundació Eticas

La Fundació Eticas treballa per traduir en especificacions tècniques els principis que guien la societat, com ara la igualtat d’oportunitats, la transparència i la no discriminació que es troben en les tecnologies que prenen decisions automatitzades sobre les nostres vides. Busca un equilibri entre els valors socials canviants, les possibilitats tècniques dels darrers avenços i el marc legal. Amb aquest objectiu, audita algorismes, verifica que s’apliquen garanties legals al món digital, especialment a la intel·ligència artificial i realitza un intens treball per conscienciar i difondre la necessitat d’una tecnologia responsable i de qualitat.

Comparteix aquest article:

EU Reporter publica articles de diverses fonts externes que expressen una àmplia gamma de punts de vista. Les posicions preses en aquests articles no són necessàriament les d'EU Reporter.

Tendències