简体中文
繁體中文
English
Pусский
日本語
ภาษาไทย
Tiếng Việt
Bahasa Indonesia
Español
हिन्दी
Filippiiniläinen
Français
Deutsch
Português
Türkçe
한국어
العربية
Extracto:Europa debería prohibir la vigilancia masiva y la clasificación de personas a gran escala a través de inteligencia artificial, según aconseja un grupo de expertos.
Un grupo de expertos recomienda a la UE, prohibir los sistemas de vigilancia a gran escala así como las clasificaciones masivas de ciudadanos a través de sistemas de IA.
El documento ha sido elaborado por el grupo de Expertos de Alto Nivel de la Inteligencia Artificial en Europa creado por la Comisión Europea en 2018.
El informe aboga por una inteligencia artificial de confianza y humana, para lo cual advierte de los posibles peligros de estos métodos de control que permite la IA.
Según el documento, los ciudadanos no deben estar “sujetos a un seguimiento o identificación personal, física o mental injustificada” utilizando AI.
Descubre más historias en Business Insider.
Europa quiere apostar por la inteligencia artificial,a la que considera “una herramienta muy sofisticada, que puede ayudar a mejorar la calidad de vida de todo”. Pero quiere hacerlo a través de una tecnología de confianza y centrada en las personas.
Para llevar a cabo el desarrollo de esta “IA ética”, la Comisión Europea creaba en 2018 el grupo de Expertos de Alto Nivel de la Inteligencia Artificial en Europa ( AI HLEG por sus siglas en inglés), para aconsejar sobre la mejor forma de implementar esta tecnología dentro de un marco ético y legal adecuado.
Desde entonces varios informes se han publicado destinados a plantear pautas para proteger y fortalecer los derechos fundamentales de los ciudadanos ante la inteligencia artificial.
Un nuevo documento publicado por el grupo de expertos publicado el 26 de junio, recomienda a la UE, prohibir los sistemas de vigilancia a gran escala así como las clasificaciones masivas de ciudadanos a través de sistemas de IA.
Centrado en laspolíticas y recomendaciones de inversión para una IA de confianza, el informe advierte que si bien puede haber una fuerte tentación por parte de los gobiernos por proteger a la sociedad mediante la construcción deun sistema de vigilancia basado en en los sistemas de IA, “esto sería extremadamente peligroso si se lleva a niveles extremos”.
Entre las peores consecuencias de la vigilancia masivasobre los ciudadanos los expertos destacan “la discriminación o sesgo injustos, la violación de la privacidad, la exclusión social o económica o el deterioro ambiental”.
Leer más: Los deberes de Europa para convertirse en referente en Inteligencia Artificial: así podría adelantar a China y Estados Unidos
El documento recoge hasta un total de 33 recomendaciones encaminadas al desarrollo de una IA de confianza basada en el ser humano. Pero, si bien todas ellas son desarrolladas como propuestas bastante amplias, en lo relativo a la recopilación a gran escala de información de los ciudadanos, los expertos se muestran contundentes.
En este sentido el HLEG puntualiza directamente la necesidad de “prohibir la calificación de personas a escala masiva habilitada por Inteligencia Artificial”estableciendo “reglas muy claras y estrictas para la vigilancia con fines de seguridad nacional y otros fines que se consideran de interés público o nacional, de conformidad con la normativa y la jurisprudencia de la UE.”
El informe puntualiza además que los ciudadanos europeos no deben estar “sujetos a un seguimiento o identificación personal, física o mental injustificada” a través de esta tecnología. Entre los métodos de IA utilizados para ello el grupo de expertos pone el foco en la identificación de emociones por la voz, identificación por iris, ADN o de expresiones faciales.
Si Europa decide poner límites a la vigilancia masiva de ciudadanoso no es algo aún por saber. Ya que este documento solo sirve como posibles pautas a seguir, pero no tiene carácter ninguno de ley para imponerse como normativa.
Descargo de responsabilidad:
Las opiniones de este artículo solo representan las opiniones personales del autor y no constituyen un consejo de inversión para esta plataforma. Esta plataforma no garantiza la precisión, integridad y actualidad de la información del artículo, ni es responsable de ninguna pérdida causada por el uso o la confianza en la información del artículo.