ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Malevolent y agradable AI


Enviado por   •  20 de Octubre de 2015  •  Documentos de Investigación  •  1.625 Palabras (7 Páginas)  •  125 Visitas

Página 1 de 7

Malevolent y agradable AI

El politólogo Charles T. Rubin cree que la IA puede ser diseñada ni garantiza que sea benevolente. ​​Él sostiene que "toda la benevolencia suficientemente avanzada puede ser indistinguible de la maldad." Los seres humanos no deben asumir las máquinas o robots nos tratarían favorablemente, porque no hay ninguna razón a priori para creer que iban a ser comprensivos con nuestro sistema de moralidad, que ha evolucionado junto con nuestra biología en particular (que inhibidores de la aromatasa no compartiría). Software Hyper inteligente no puede decidir necesariamente para apoyar la continua existencia de la humanidad, y sería extremadamente difícil de detener. Este tema también ha comenzado recientemente a ser discutido en publicaciones académicas como una fuente real de los riesgos para la civilización, los seres humanos y el planeta Tierra.

El físico Stephen Hawking, Microsoft fundador Bill Gates y SpaceX fundador Elon Musk han expresado su preocupación por la posibilidad de que la IA podría evolucionar hasta el punto de que los seres humanos no podían controlarlo, con Hawking teorizar que esto podría "significar el fin de la raza humana".

Una de las propuestas para hacer frente a esto es para asegurar que la primera AI generalmente inteligente es 'AI friendly', y entonces será capaz de controlar los IA posteriormente desarrollado. Algunos se preguntan si este tipo de cheque realmente podría permanecer en su lugar.

Liderando el investigador de AI Rodney Brooks escribe: "Creo que es un error ser preocupante acerca de nosotros desarrollar malévola AI en cualquier momento en los próximos cien años. Creo que la preocupación se debe a un error fundamental al no distinguir la diferencia entre los últimos avances muy reales en un aspecto particular de la IA, y la enormidad y complejidad de la construcción de la inteligencia volitiva sintiente ".

La devaluación de la humanidad

Joseph Weizenbaum escribió que las aplicaciones de IA no pueden, por definición, simular con éxito genuina empatía humana y que el uso de la tecnología de AI en campos como la atención al cliente o la psicoterapia estaba profundamente equivocada. Weizenbaum también le molestaba que los investigadores de IA (y algunos filósofos) estaban dispuestos a ver la mente humana como nada más que un programa de ordenador (una posición que ahora se conoce como computacionalismo). Para Weizenbaum estos puntos sugieren que la investigación en IA devalúa la vida humana.

Disminución de la Demanda de mano de obra humana

Martin Ford, autor de Las Luces en el túnel: Automatización, Tecnología Acelerar y la Economía del futuro, y Otros argumentan Que las Aplicaciones especializadas de inteligencia artificial, la robótica y Otras Formas de Automatización en última instancia result en Desempleo significativo de Como Máquinas Comienzan un partido y Superar la Capacidad de los Trabajadores Para Llevar un Cabo La Mayoría de los Trabajos rutinarios y repetitivos. Ford Prevé Que los muchas Ocupaciones y basadas en el Conocimiento, en particular, de Nivel de entrada Puestos de Trabajo Seran Cada Vez Más susceptibles a la Automatización un Través de los Expertos Sistemas, Aprendizaje automático  y Otras Aplicaciones Mejoradas por la IA. Aplicaciones basadas en IA también se pueden USAR párrafo amplificar las Capacidades de los bajos salarios los Trabajadores en alta mar, lo que hace más factible externalizar El Trabajo del Conocimiento.

Conciencia de la Máquina, la Sensibilidad y la mente

Si la ONU Sistema de inteligencia artificial se replica en TODOS LOS Aspectos clave de la inteligencia humana, sueros ESE system también Ser sintiente - Va A Tener Una mente Tiene Que experiencias conscientes? This question this estrechamente Relacionada con El problema filosófico Cuanto a la naturaleza de la Conciencia Humana, generalmente Conocido Como elduro problema de la Conciencia.

Conciencia

No hay criterios objetivos para saber si un agente inteligente es consciente - que tiene experiencias conscientes. Suponemos que otras personas hacen porque lo hacemos y nos dicen que lo hacen, pero esto es sólo una determinación subjetiva. La falta de cualquier criterio duros se conoce como el "problema duro" en la teoría de la conciencia. El problema no sólo se aplica a otras personas, sino a los animales superiores y, por extensión, a los agentes de AI.

Computacionalismo

¿Son de inteligencia, Humanos conciencia y mente Productos De procesamiento de la Información? ¿Es el cerebro esencialmente Una Computadora?

Computacionalismo es la idea de que "la mente humana o el cerebro humano (o ambos) es un sistema de procesamiento de la información y que el pensamiento es una forma de computación". AI, o máquinas de aplicación con la inteligencia humana fue fundada en la afirmación de que "una característica central de los seres humanos, la inteligencia puede ser lo describe con precisión que una máquina se puede hacer para simularlo". Un programa puede entonces ser derivado de este equipo humano e implementado en una artificial para crear inteligencia artificial eficiente. Este programa sería actuar sobre un conjunto de salidas que resultan de conjunto entradas de la memoria interna del ordenador, es decir, la máquina sólo puede actuar con lo que se ha implementado en ella para empezar. Un objetivo a largo plazo para los investigadores de la IA es proporcionar máquinas con un profundo conocimiento de las muchas capacidades de un ser humano para replicar una inteligencia general o FUERTE AI, que se define como una máquina superando las capacidades humanas para realizar las habilidades implantados en él, un pensamiento de miedo para muchos, que temen perder el control de una máquina tan poderosa. Los obstáculos para los investigadores son principalmente contstraints tiempo. Es decir, los científicos de IA no puede establecer la mayor parte de una base de datos para el conocimiento de sentido común, ya que debe ser ontológicamente elaborado en la máquina que tiene una enorme cantidad de tiempo. Para combatir esto, AI investigación parece tener la máquina capaz de entender bastantes conceptos con el fin de añadir a su propia ontología, pero ¿cómo puede hacer esto cuando la ética de la máquina es principalmente con el comportamiento de las máquinas hacia los seres humanos u otras máquinas, lo que limita el alcance de desarrollar IA. Para funcionar como un ser humano común AI también debe mostrar ", la capacidad de resolver tareas de conocimiento de sentido común subsimbólicas tales como cómo los artistas pueden decir estatuas son falsos o cómo los maestros de ajedrez no se mueven ciertos puntos para evitar la exposición", pero por las máquinas en desarrollo que lo puede hacer toda la investigación de AI se enfrenta a la dificultad de que podría poner un montón de gente sin trabajo, mientras que en el lado de la economía de las cosas las empresas tendrían auge de la eficiencia, lo que obliga a AI en un cuello de botella tratando de desarrollar máquinas de auto mejora.

...

Descargar como (para miembros actualizados) txt (10 Kb) pdf (71 Kb) docx (14 Kb)
Leer 6 páginas más »
Disponible sólo en Clubensayos.com