Delictes d’odi
Fins i tot una demanda de 2.4 milions de dòlars no aturarà l'odi en línia: Silicon Valley va ser creada específicament per augmentar-la

A l'octubre de 2021, la professora Meareg Amare (A la foto) va ser doxxed a Facebook. Setmanes després, va ser assassinat brutalment a casa seva, escriu Courteney Mukoyi.
Ara, l'empresa matriu de Facebook, Meta, s'enfronta a un Demanda de 2.4 milions de dòlars, acusat d'incitar a la violència a l'Etiòpia natal d'Amare.
El doxxing d'Amare no va ser casual. La seva informació no només va caure en mans equivocades, sinó que es va amplificar deliberadament com una crida a la justícia violenta i vigilant.
En el món actual, el paper de l'estat a l'hora d'investigar els actes il·lícits i de protegir els innocents ha estat substituït per multituds en línia que actuen com a jutge, jurat i botxí.
I no només a Etiòpia.
A l'Índia, 20 persones van ser assassinats en dos mesos després de ser acusat de segrest de menors per WhatsApp el 2018.
Poc després, Alemanya va ser testimoni de disturbis xenòfobs després rumors a les xarxes socials va afirmar que un alemany va ser assassinat per sol·licitants d'asil. I tot just l'any passat, van esclatar disturbis històrics al Regne Unit després del tràgic assassinat de tres noies a Southport, alimentat per una onada de desinformació sobre la identitat del presumpte assassí.
En cadascun d'aquests casos la desinformació es va dirigir a comunitats minoritàries o musulmanes, que ja s'enfronten nivells rècord del crim d'odi.
Des del moment que neix un algorisme, comença a mutar, aprenent com –i a qui– odiar a partir de les dades i els patrons dels quals aprèn. Igual que l'efecte papallona, fins i tot el més petit rastre de biaix o discriminació s'amplifica a l'instant.
A partir d'aleshores, ràpidament es fa irreconeixible. Incontrolable. Fins i tot al seu creador.
Però fins i tot si volgués, Mark Zuckerberg no pot estirar l'endoll.
No només és que la màquina ha superat el seu fabricant, sinó que cap dels jugadors rellevants té el conjunt d'eines complet per contenir-lo. Els gegants tecnològics tenen l'experiència tècnica, però no tenen voluntat ni llibertat legal per actuar. Els governs nacionals tenen poder legislatiu, però es mouen massa lentament per seguir el ritme de la innovació. I les organitzacions de la societat civil poden entendre els danys millor que ningú, però no tenen la infraestructura ni la influència per fer complir el canvi.
Prenguem, per exemple, el de la UE Llei de serveis digitals – proposat per primera vegada a finals del 2020, però no s'aplicarà fins al 2024. En el llarg període del seu desenvolupament –ChatGPT només es va llançar el 2022–, el panorama digital va canviar dràsticament, deixant les seves regles obsoletes abans que s'introduïssin.
Des de la introducció de l'acte, l'aplicació, que inclou mesures frenar el discurs d'odi en línia i l'amplificació algorítmica del contingut extremista, ha resultat difícil. Els atacs a les minories, inclosos els musulmans i els jueus, estan al seu màxim històric. L'extrema dreta ho ha fet usat l'acte com justificació per la seva pròpia retòrica deshumanitzadora.
A l'ONU el mes passat, Mohammad Al-Issa, secretari general de la Lliga Mundial Musulmana, va afirmar que la islamofòbia és una crisi creixent. Al-Issa ho ha fet repetidament previngut que la intel·ligència artificial podria armar les xarxes socials, difondre la desinformació i reclutar extremistes, és per això que argumenta que els líders religiosos s'han d'incloure en el desenvolupament de marcs ètics. Les seves advertències es fan ressò dels del Papa Francesc i del Vaticà que afirmen que la IA és un "ombra del mal'.
Els esforços d'Al-Issa per contrarestar l'odi són anteriors al debat d'avui sobre l'IA. El gener de 2020, ell encapçalava una delegació de líders musulmans al memorial d'Auschwitz-Birkenau, una de les visites islàmiques més importants al lloc, subratllant un compromís més ampli per fer front al llegat de l'odi i la violència. Avui, mentre la guerra fa estrall a l'Orient Mitjà, aquest compromís de fomentar la comprensió interreligiosa és més urgent que mai.
"Si els líders religiosos no tenen seient als esdeveniments [AI]", va advertir Al-Issa en un article recent, "...al debat en evolució sobre la IA faltaria importants experts en la matèria que són necessaris per evitar qualsevol possibilitat d'una nova era d'extremisme impulsat per la IA".
Si es vol fer algun progrés, la tecnologia, la política i la comunitat han de deixar de treballar de manera aïllada i començar a construir una resposta compartida i coordinada.
En primer lloc, hem d'invertir en investigació i desenvolupament més enllà de la bombolla de Silicon Valley, reduint simultàniament la nostra dependència de la governança cada cop més irregular del president Trump. A continuació, hauríem d'introduir noves regles, exigint que les corporacions i les organitzacions consultin les parts interessades de la comunitat al llarg de les seves operacions, i per garantir que els algorismes estiguin entrenats en conjunts de dades inclusius.
Al mateix temps, la UE ha d'explorar noves eines per detectar i mitigar el biaix inevitable dels sistemes d'IA. També hauríem de desplegar programes universals d'alfabetització en IA i plataformes de rendició de comptes, educant el públic sobre les possibles amenaces i habilitant-los per informar de qualsevol queixa.
El que va passar a Etiòpia o Southport no és una anomalia, és un avís que les plataformes actuals ja no són espais neutres. Són agents actius a l'hora de configurar el sentiment i el comportament públics, massa sovint de manera que inciten a la violència i polaritzan les societats.
En definitiva, aquesta demanda contra Meta no es tracta només de responsabilitat, sinó de prevenció. Sens dubte, els estàndards reguladors ajudaran, però les restriccions s'han de compensar mitjançant la diversificació.
Només així podrem conservar els beneficis d'aquestes tecnologies sense lliurar la idea mateixa de justícia a una multitud algorítmica incontrolable.
Sobre l'autor:
Courteney Mukoyi és la fundadora i directora de la Justice Code Foundation, que aprofita les tecnologies existents i emergents per promoure els drets humans a les comunitats de Zimbabwe. És un entusiasta de CivicTech amb un màster en dret en comerç internacional per la Universitat de Ciutat del Cap.
Muyoki ha rebut diversos premis, com ara el Premi a la Innovació Democràtica 2022 i el Premi Wangari Maathai AI Impact Award 2023. El 2023, va ser seleccionat per a la Mandela Washington Fellowship. Actualment forma part del Consell Assessor de Joventut de l'UNHRC i de la Junta de Sonda Juvenil de la Unió Europea. Ha treballat amb diverses organitzacions, com ara Accountability Lab i la Unió Africana, per avançar en l'ús de la tecnologia i la intel·ligència artificial en els drets humans i el compromís cívic. És un empresari en sèrie que també va fundar una startup InsurTech anomenada TopSure, que va començar el seu viatge per crear startups d'unicorns a Àfrica.
Comparteix aquest article:
EU Reporter publica articles de diverses fonts externes que expressen una àmplia gamma de punts de vista. Les posicions preses en aquests articles no són necessàriament les d'EU Reporter. Si us plau, consulteu el document complet de EU Reporter Termes i condicions de publicació per obtenir més informació, EU Reporter adopta la intel·ligència artificial com a eina per millorar la qualitat, l'eficiència i l'accessibilitat periodístiques, alhora que manté una estricta supervisió editorial humana, estàndards ètics i transparència en tot el contingut assistit per IA. Si us plau, consulteu el document complet de EU Reporter Política d'IA per més informació.

-
les articleFa dies 3
Per què Europa dóna suport a Zelenski? Un canvi estratègic impulsat per la generositat dels EUA
-
Transport. Porta el teu cotxeFa dies 3
El Parlament Europeu aprova normes de CO₂ més flexibles per als fabricants d'automòbils
-
ÀfricaFa dies 3
Reparacions africanes: una nova fase en el procés
-
GeneralFa dies 3
Els productes no segurs estan inundant els mercats mentre que la supervisió es queda enrere