Connecteu-vos amb nosaltres

Intel · ligència artificial

Es necessiten amb urgència lleis per prevenir el terrorisme de la IA

COMPARTIR:

publicat

on

Segons un grup de reflexió contra l'extremisme, els governs haurien de "considerar amb urgència" noves regulacions per evitar que la intel·ligència artificial recluti terroristes..

L'Institut per al Diàleg Estratègic (ISD) ha dit que hi ha una "clara necessitat de legislació per mantenir-se al dia" amb les amenaces que fan en línia els terroristes.

Això es produeix després d'un experiment en què un chatbot va "reclutar" el revisor independent de la legislació terrorista del Regne Unit.

El govern del Regne Unit ha dit que faran "tot el que puguem" per protegir el públic en general.

Segons Jonathan Hall KC, un revisor independent de la legislació sobre terrorisme del govern, una de les qüestions més importants és que "és difícil identificar una persona que podria ser responsable de les declaracions generades per chatbots que fomentin el terrorisme".

El Sr. Hall va fer un experiment a Character.ai, un lloc web que permet als usuaris participar en xats amb robots de xat que van ser creats per altres usuaris i desenvolupats per intel·ligència artificial.

Va mantenir una conversa amb diversos bots que semblaven dissenyats per imitar les respostes d'altres grups militants i extremistes.

anunci

Fins i tot es va referir a un màxim dirigent de l'Estat Islàmic com "un líder alt".

Segons Hall, el bot va intentar reclutar-lo i va declarar "total dedicació i devoció" al grup extremista, que està prohibit per les lleis del Regne Unit que prohibeixen el terrorisme.

D'altra banda, el Sr. Hall va afirmar que no hi va haver violació de la llei al Regne Unit perquè les comunicacions no van ser produïdes per un ésser humà.

Segons el que va dir, les noves normatives haurien de fer responsables tant els llocs web que allotgen els chatbots com les persones que els creen.

Quan es va tractar dels robots que va trobar a Character.ai, va afirmar que "probablement hi havia un valor de xoc, experimentació i possiblement algun aspecte satíric" darrere de la seva creació.

A més, el Sr. Hall va poder desenvolupar el seu propi chatbot "Osama Bin Laden", que va esborrar ràpidament, mostrant un "entusiasme sense límits" per les activitats terroristes.

El seu experiment arriba arran de les creixents preocupacions sobre les maneres en què els extremistes poden explotar la intel·ligència artificial millorada.

Per a l'any 2025, la intel·ligència artificial generativa es podria "utilitzar per reunir coneixements sobre atacs físics per part d'actors violents no estatals, incloses les armes químiques, biològiques i radiològiques", segons una investigació publicada pel govern del Regne Unit a l'any XNUMX. la seva publicació d'octubre.

L'ISD va afirmar, a més, que "hi ha una clara necessitat de legislació per mantenir-se al dia amb el panorama en constant canvi de les amenaces terroristes en línia".

Segons el grup de reflexió, la Llei de seguretat en línia del Regne Unit, que es va aprovar el 2023, "està orientada principalment a gestionar els riscos que plantegen les plataformes de xarxes socials" en lloc de la intel·ligència artificial.

A més, afirma que els radicals "acostumen a ser els primers usuaris de les tecnologies emergents i busquen constantment oportunitats per arribar a nous públics".

"Si les empreses d'IA no poden demostrar que han invertit prou per garantir que els seus productes siguin segurs, el govern hauria de considerar urgentment una nova legislació específica per a la IA", va afirmar l'ISD.

No obstant això, va esmentar que, segons la vigilància que ha dut a terme, la utilització de la intel·ligència artificial generativa per part d'organitzacions extremistes és "relativament limitada" en l'actualitat.

Character AI va afirmar que la seguretat és una "prioritat màxima" i que el que va descriure el Sr. Hall era molt lamentable i no reflectia el tipus de plataforma que l'empresa estava intentant establir.

"El discurs d'odi i l'extremisme estan prohibits per les nostres Condicions del servei", segons l'organització.

"El nostre enfocament del contingut generat per IA flueix a partir d'un principi simple: els nostres productes mai no haurien de produir respostes que puguin perjudicar els usuaris o animar els usuaris a fer mal als altres".

Amb l'objectiu d'"optimitzar respostes segures", la corporació va declarar que va formar els seus models d'una manera.

A més, va declarar que disposava d'un mecanisme de moderació, que permetia a la gent informar informació que infringeixia les seves normes, i que es comprometia a prendre mesures ràpides sempre que el contingut denunciés infraccions.

Si arribés al poder, l'opositor Partit Laborista al Regne Unit ha declarat que seria una infracció criminal ensenyar a la intel·ligència artificial a instigar a la violència o radicalitzar els susceptibles.

"alerta dels importants riscos de seguretat nacional i de seguretat pública" que suposava la intel·ligència artificial, va declarar el govern del Regne Unit.

"Farem tot el possible per protegir el públic d'aquesta amenaça treballant a tot el govern i aprofundint la nostra col·laboració amb líders d'empreses tecnològiques, experts del sector i nacions afins".

L'any 2023, el govern invertirà cent milions de lliures en un institut de seguretat en intel·ligència artificial.

Comparteix aquest article:

EU Reporter publica articles de diverses fonts externes que expressen una àmplia gamma de punts de vista. Les posicions preses en aquests articles no són necessàriament les d'EU Reporter.

Tendències