Connecteu-vos amb nosaltres

Xina

Vigilància biomètrica massiva: un nou estudi adverteix de la vigilància xinesa
mètodes a Europa

COMPARTIR:

publicat

on

Utilitzem el vostre registre per proporcionar contingut de la manera que heu consentit i per millorar la nostra comprensió de vosaltres. Podeu donar-vos de baixa en qualsevol moment.

Demà, 4 de febrer, el Grup Verds/Aliança Lliure Europea al Parlament Europeu presentarà un nou estudi sobre l'impacte de la vigilància biomètrica massiva, com el programari de reconeixement facial, sobre els drets humans a Europa. Citant casos alarmants de França, el Regne Unit i Romania, l'estudi mostra clarament els riscos i perills d'aquestes tecnologies.

És el primer estudi que analitza de manera exhaustiva l'impacte del programari de reconeixement facial i conductual sobre els drets humans a les democràcies liberals des d'una perspectiva política democràtica, dibuixant un panorama distòpic. Abans de la presentació pública de demà, ja oferim als corresponsals l'anàlisi completa [1] així com un resum [2] avui dia.

També avui s'obriran els Jocs Olímpics d'hivern a Pequín, Xina, en un context de greus preocupacions en matèria de drets humans. Tanmateix, de cara als propers Jocs Olímpics de París del 2024, els organitzadors d'Europa també estan estudiant la possibilitat d'augmentar la vigilància massiva biomètrica als esdeveniments esportius. En fer-ho, els polítics acceptarien deliberadament la pèrdua de la privadesa, la limitació de la llibertat d'expressió i la divisió de la societat i la discriminació.

Patrick Breyer, eurodiputat pirata i líder de la campanya del seu grup parlamentari per a la prohibició de la vigilància massiva biomètrica, va dir: "França, que actualment ocupa la presidència de la UE i és el país amfitrió dels Jocs Olímpics de 2024, és pionera en aquesta tecnologia de vigilància a Europa. Hi ha un perill real que la vigilància biomètrica massiva s'estableixi a Europa a través dels Jocs Olímpics. Per tant, el nostre estudi és perfectament adequat per demostrar equivocada la imatge de precisió que té aquesta tecnologia i contrarestar la seva normalització progressiva. Necessitem urgentment la prohibició d'aquests errors. -Tecnologies de vigilància propenses si no volem acabar amb una UE d'estil xinès. Amb taxes d'error de fins al 99 per cent, la tecnologia de vigilància facial ineficaç no té res a veure amb les cerques dirigides. El mateix passa amb la vigilància biomètrica del comportament i així- anomenats "detectors de vídeo de mentides".

Fons

L'ús de tecnologies de vigilància biomètrica és objecte d'un intens debat a la UE. Mentre que el Parlament de la UE va demanar la prohibició d'aquesta tecnologia l'octubre del 2021 [3], la Comissió de la UE i veus conservadores hi estan a favor. Les campanyes de la societat civil com la iniciativa ciutadana 'Reclaim Your Face' s'oposen a l'ús de programari de reconeixement facial i de comportament[4].
[1] http://extranet.greens-efa-service.eu/public/media/file/1/7487
[2] https://www.patrick-breyer.de/wp-content/uploads/2022/02/20220203_Overview_HR_Impact_BMS_Study.pdf
[3] https://www.patrick-breyer.de/en/european-parliament-votes-for-ban-on-biometric-mass-surveillance/
[4] https://reclaimyourface.eu/

anunci

Comparteix aquest article:

EU Reporter publica articles de diverses fonts externes que expressen una àmplia gamma de punts de vista. Les posicions preses en aquests articles no són necessàriament les d'EU Reporter.

Tendències