Blake Lemoine, el ingeniero, dice que el modelo de lenguaje de Google tiene alma. La empresa no está de acuerdo.
Este artículo es parte de nuestro Resumen diario de negocios
Algunos investigadores de inteligencia artificial han hecho afirmaciones optimistas acerca de que las tecnologías pronto alcanzarán la conciencia, pero muchos otros descartan rápidamente esas afirmaciones.
Algunos investigadores de inteligencia artificial han hecho afirmaciones optimistas acerca de que las tecnologías pronto alcanzarán la conciencia, pero muchos otros descartan rápidamente esas afirmaciones.Crédito...Laura Morton para The New York Times
Pornico becaycade metz
12 de junio de 2022
SAN FRANCISCO (AP) — Recientemente, Google colocó a un ingeniero en licencia paga después de desestimar su afirmación de que su inteligencia artificial es inteligente, lo que puso de manifiesto otro altercado sobre la tecnología más avanzada de la empresa.
Blake Lemoine, ingeniero de software sénior en la organización de inteligencia artificial responsable de Google, dijo en una entrevista que lo suspendieron el lunes. El departamento de recursos humanos de la empresa dijo que había violado la política de confidencialidad de Google. El día antes de su suspensión, dijo Lemoine, entregó documentos a la oficina de un senador de EE. UU., alegando que proporcionaban evidencia de que Google y su tecnología participaban en discriminación religiosa.
Google dijo que sus sistemas imitaban los intercambios conversacionales y podían hablar sobre diferentes temas, pero no tenían conciencia. “Nuestro equipo, incluidos especialistas en ética y tecnólogos, ha revisado las preocupaciones de Blake según nuestros Principios de IA y le ha informado que la evidencia no respalda sus afirmaciones”, dijo Brian Gabriel, un portavoz de Google, en un comunicado. “Algunos en la comunidad de IA más amplia están considerando la posibilidad a largo plazo de una IA sensible o general, pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son sensibles”. El Washington Post fue el primero en informar sobre la suspensión del Sr. Lemoine.
Durante meses, Lemoine se peleó con los gerentes, ejecutivos y recursos humanos de Google por su sorprendente afirmación de que el modelo de lenguaje para aplicaciones de diálogo (LaMDA, por sus siglas en inglés) de la empresa tenía conciencia y alma. Google dice que cientos de sus investigadores e ingenieros han conversado con LaMDA, una herramienta interna, y llegaron a una conclusión diferente a la de Lemoine. La mayoría de los expertos en inteligencia artificial creen que la industria está muy lejos de la sensibilidad informática.
Algunos investigadores de IA han hecho durante mucho tiempo afirmaciones optimistas acerca de que estas tecnologías pronto alcanzarán la conciencia, pero muchos otros son extremadamente rápidos en descartar estas afirmaciones. “Si usaras estos sistemas, nunca dirías esas cosas”, dijo Emaad Khwaja, investigador de la Universidad de California, Berkeley, y la Universidad de California, San Francisco, que está explorando tecnologías similares.
Leer más sobre Inteligencia Artificial
¿Son reales estas personas?: creamos nuestro propio sistema de inteligencia artificial para comprender lo fácil que es para una computadora generar caras falsas .
Imitando la vida: los nuevos sistemas de IA pueden escribir prosa original y generar una imagen a tu disposición. Las implicaciones podrían ser profundas .
¿Qué pasó con Watson? : Se suponía que la supercomputadora de IBM transformaría las industrias y generaría riqueza para la empresa. Ninguna ambición ha dado resultado .
Serie AI/Vida real: desde la identificación de trastornos mentales hasta la fabricación de chatbots más inteligentes , The Times analiza el potencial de la IA para resolver problemas cotidianos .
Mientras perseguía a la vanguardia de la IA, la organización de investigación de Google ha pasado los últimos años envuelta en escándalos y controversias. Los científicos de la división y otros empleados se han peleado regularmente por cuestiones de tecnología y personal en episodios que a menudo se han extendido a la arena pública. En marzo, Google despidió a un investigador que había tratado de discrepar públicamente con el trabajo publicado de dos de sus colegas. Y los despidos de dos investigadores de ética de IA, Timnit Gebru y Margaret Mitchell, después de que criticaran los modelos de lenguaje de Google, han seguido ensombreciendo al grupo.
Destacados
Tom Hanks lo explica todo
A medida que el Gran Colisionador de Hadrones se acelera, las esperanzas de los físicos se disparan
¿Pueden los suplementos realmente ayudar con la depresión o la ansiedad?
Blake Lemoine en 2005, cuando era especialista del Ejército de EE. UU.
Blake Lemoine en 2005, cuando era especialista del Ejército de EE. UU.Crédito...Alex Grimm/Reuters
“Han cuestionado repetidamente mi cordura”, dijo Lemoine. “Dijeron: '¿Ha sido revisado por un psiquiatra recientemente?'”. En los meses previos a que lo pusieran en licencia administrativa, la compañía le había sugerido que tomara una licencia por salud mental.
Yann LeCun, jefe de investigación de IA en Meta y figura clave en el auge de las redes neuronales, dijo en una entrevista esta semana que este tipo de sistemas no son lo suficientemente poderosos para lograr una verdadera inteligencia.
La tecnología de Google es lo que los científicos llaman una red neuronal , que es un sistema matemático que aprende habilidades mediante el análisis de grandes cantidades de datos. Al identificar patrones en miles de fotos de gatos, por ejemplo, puede aprender a reconocer a un gato.
En los últimos años, Google y otras empresas líderes han diseñado redes neuronales que aprendieron de enormes cantidades de prosa , incluidos miles de libros inéditos y artículos de Wikipedia. Estos "modelos de lenguaje grande" se pueden aplicar a muchas tareas. Pueden resumir artículos, responder preguntas, generar tweets e incluso escribir publicaciones de blog.
Pero son extremadamente defectuosos. A veces generan una prosa perfecta. A veces generan tonterías. Los sistemas son muy buenos para recrear patrones que han visto en el pasado, pero no pueden razonar como un humano.


0 Comentarios