Taller Big data
Enviado por luigami • 14 de Octubre de 2020 • Ensayo • 1.112 Palabras (5 Páginas) • 84 Visitas
- ¿Qué riesgos en la seguridad de datos personales conllevaría no regular la IA? De ejemplos actuales del mal uso de la IA.
Dado el avance significativo que ha tenido la IA en la humanidad y su gran impacto en diversos campos sociales y económicos, se ha vuelto un arma de doble filo y un peligro latente para la sociedad actual. Esto dado, a que una mala aplicación de estos algoritmos no solo genera una vulnerabilidad e intromisión de los datos personales, sino que la falta de regulación de esta a medida que se desarrolla esta tecnología puede ser usada para crear armas autónomas que son capaces de manipular a la sociedad a través de información presentada en las redes sociales y demás campos sociales que utilicen los seres humanos creando un control mediático.
Esto a su vez, como lo refiere un estudio realizado por el All Now Institute de la universidad de Nueva York, genera una relación entre el uso de esta tecnología y la desigualdad, ya que el alcance y los diferentes campos que se está utilizando esta tecnología han generado una colocación de información y control de sociedades en manos de las personas que ya tienen el poder al igual que excluye a los que no.
Por ende, se han realizado infinidad de peticiones para que se regule esta tecnológica a la par de su desarrollo. La trascendida que ha generado esta tecnología ha escalado a organizaciones internacionales como la OCDE, el G-20 y el Foro Económico Mundial quien están construyendo una carta con principios de aplicación transparente de los sistemas de IA. Sin embargo, cabe aclarar que esto solo son recomendaciones para el uso de esta y queda en manos de los gobernantes legislar en favor de los usuarios y evitar que en un solo lugar quede el control del poder de esta tecnología.
Hay infinidad de problemas que surgen en la actualidad en el mal uso de la IA en cuanto al volumen de datos, problemas de tecnología, problemas de seguridad, problemas de interacción y comportamiento de los modelos. Queriendo hacer énfasis en este último, ya que podemos ver un claro ejemplo del mal comportamiento de estos modelos como lo afirma un estudio de la McKisey Company “que no solo están generando resultados sesgados (lo que podría suceder, por ejemplo, si una población está subrepresentada en los datos utilizados para entrenar el modelo), se vuelven inestables o arrojan conclusiones para las cuales no hay un recurso disponible para los afectados por sus decisiones (como la denegación de un préstamo a una persona sin informarle las causas para intentar revertir la decisión). Consideremos, por ejemplo, el potencial de los modelos de IA para discriminar involuntariamente en contra de grupos protegidos combinando datos de código postal e ingreso para elaborar propuestas a medida. Más difíciles de detectar son las instancias en que los modelos de IA están ocultos en ofertas de software como servicio (SaaS). Cuando los proveedores introducen funcionalidades nuevas e “inteligentes”, muchas veces sin demasiada publicidad, también están creando modelos capaces de interactuar con los datos en los sistemas del usuario y de provocar riesgos inesperados, revelando incluso vulnerabilidades ocultas y susceptibles de ser explotadas por hackers. La consecuencia es que los líderes que creen tener claro que su organización no ha comprado o desarrollado sistemas de IA, o solo los está desplegando en forma experimental, podrían no estar en lo cierto.”
...