ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

UN ECOSISTEMA DE CONFIANZA: MARCO REGULATORIO PARA LA IA


Enviado por   •  19 de Enero de 2021  •  Documentos de Investigación  •  5.079 Palabras (21 Páginas)  •  95 Visitas

Página 1 de 21

5. UN ECOSISTEMA DE CONFIANZA: MARCO REGULATORIO PARA LA AI

Al igual que con cualquier tecnología nueva, el uso de IA trae oportunidades y riesgos. Los ciudadanos temen ser abandonados impotente en la defensa de sus derechos y seguridad ante las asimetrías de información de algorítmica toma de decisiones, y las empresas están preocupadas por la inseguridad jurídica. Si bien la IA puede ayudar a proteger seguridad de los ciudadanos y permitirles disfrutar de sus derechos fundamentales, a los ciudadanos también les preocupa que la IA pueda tener efectos no deseados o incluso ser utilizados con fines maliciosos. Estas preocupaciones deben ser abordadas.

Además, además de la falta de inversión y habilidades, la falta de confianza es un factor principal que frena un absorción más amplia de IA. Es por eso que la Comisión estableció una estrategia de IA28 el 25 de abril de 2018 que aborda el tema socioeconómico aspectos en paralelo con un aumento de la inversión en investigación, innovación y capacidad de inteligencia artificial en todo el UE. Acordó un Plan Coordinado29 con los Estados Miembros para alinear las estrategias. La Comisión también estableció un grupo de expertos de alto nivel que publicó Directrices sobre IA confiable en abril de 2019 30.

La Comisión publicó una Comunicación31 que acoge los siete requisitos clave identificados en Las Directrices del Grupo de Expertos de Alto Nivel:

 Agencia humana y supervisión,

 Robustez técnica y seguridad,

 Privacidad y gobierno de datos,

 transparencia,

 Diversidad, no discriminación y equidad.

 Bienestar social y ambiental, y

 Responsabilidad.

Además, las Directrices contienen una lista de evaluación para uso práctico de las empresas. Durante el segunda mitad de 2019, más de 350 organizaciones probaron esta lista de evaluación y enviaron comentarios. Los El Grupo de alto nivel está revisando sus directrices a la luz de estos comentarios y finalizará este trabajo para junio de 2020. Un resultado clave del proceso de retroalimentación es que, si bien algunos de los los requisitos ya se reflejan en los regímenes legales o reglamentarios existentes, los relacionados con la transparencia, La trazabilidad y la supervisión humana no están específicamente cubiertas por la legislación actual en muchos sectores economicos.

Además de este conjunto de Directrices no vinculantes del Grupo de Expertos de Alto Nivel, y en línea con el Directrices políticas del presidente, un marco regulatorio europeo claro generaría confianza entre consumidores y empresas en IA, y por lo tanto aceleran la adopción de la tecnología. Tal El marco regulatorio debe ser coherente con otras acciones para promover la capacidad de innovación de Europa y competitividad en este campo. Además, debe garantizar social, ambiental y Resultados económicamente óptimos y cumplimiento de la legislación, principios y valores de la UE. Esto es particularmente relevante en áreas donde los derechos de los ciudadanos pueden verse más directamente afectados, por ejemplo en caso de aplicaciones de IA para la aplicación de la ley y el poder judicial.

Los desarrolladores y los implementadores de IA ya están sujetos a la legislación europea sobre derechos fundamentales (p. Ej. protección de datos, privacidad, no discriminación), protección del consumidor y seguridad y responsabilidad del producto reglas. Los consumidores esperan el mismo nivel de seguridad y respeto de sus derechos, sea o no un producto o Un sistema se basa en la IA. Sin embargo, algunas características específicas de AI (por ejemplo, opacidad) pueden hacer que la aplicación y la aplicación de esta legislación más difícil. Por esta razón, es necesario examinar si La legislación actual es capaz de abordar los riesgos de la IA y se puede hacer cumplir efectivamente, ya sea se necesitan adaptaciones de la legislación, o si se necesita una nueva legislación.

Dada la rapidez con la que la IA está evolucionando, el marco regulatorio debe dejar espacio para atender más desarrollos. Cualquier cambio debe limitarse a problemas claramente identificados para los cuales sea factible existen soluciones Los Estados miembros señalan la ausencia actual de un marco europeo común. El Alemán La Comisión de ética de datos ha pedido un sistema de regulación basado en el riesgo de cinco niveles que iría desde no hay regulación para los sistemas de IA más inocuos a una prohibición completa para los más peligrosos. Dinamarca acaba de lanzar el prototipo de un Sello de ética de datos. Malta ha introducido un voluntario sistema de certificación para IA. Si la UE no proporciona un enfoque a nivel de toda la UE, existe un riesgo real de fragmentación en el mercado interno, que socavaría los objetivos de confianza, seguridad jurídica y captación del mercado.

Un marco regulatorio europeo sólido para una IA confiable protegerá a todos los ciudadanos europeos y ayudará crear un mercado interno sin fricciones para el desarrollo y la absorción de la IA, así como Fortalecimiento de la base industrial de Europa en IA.

A. DEFINICIÓN DEL PROBLEMA

Si bien la IA puede hacer mucho bien, incluso al hacer que los productos y procesos sean más seguros, también puede hacer daño. Este daño puede ser tanto material (seguridad y salud de las personas, incluida la pérdida de vidas, daños a propiedad) e inmaterial (pérdida de privacidad, limitaciones al derecho a la libertad de expresión, humano dignidad, discriminación, por ejemplo, en el acceso al empleo), y puede relacionarse con una amplia variedad de riesgos.

Un marco regulatorio debe concentrarse en cómo minimizar los diversos riesgos de daño potencial, en en particular los más significativos. Los principales riesgos relacionados con el uso de IA se refieren a la aplicación de reglas diseñadas para proteger derechos fundamentales (incluidos los datos personales y la protección de la privacidad y la no discriminación), así como seguridad32 y cuestiones relacionadas con la responsabilidad.

El uso de IA puede afectar los valores en los que se basa la UE y dar lugar a infracciones de los principios fundamentales. derechos33, incluidos los derechos a la libertad de expresión, libertad de reunión, dignidad humana, no discriminación basada en el sexo, origen racial o étnico, religión o creencias, discapacidad, edad o sexual orientación, según corresponda en ciertos dominios, protección de datos personales y vida privada, 34 o la derecha a un recurso judicial efectivo y un juicio justo, así como a la protección del consumidor. Estos riesgos pueden resultar por fallas en el diseño general de los sistemas de IA (incluso en lo que respecta a la supervisión humana) o por el uso de datos sin corregir posibles sesgos (por ejemplo, el sistema está entrenado usando solo o principalmente datos de hombres que conduce a resultados subóptimos en relación con las mujeres).

...

Descargar como (para miembros actualizados) txt (33 Kb) pdf (110 Kb) docx (18 Kb)
Leer 20 páginas más »
Disponible sólo en Clubensayos.com