Google despide a ingeniero que afirma que la IA tiene conciencia propia

Blake Lemoine, el ingeniero, dice que el modelo de lenguaje de Google tiene alma. La empresa no est谩 de acuerdo.

Este art铆culo es parte de nuestro Resumen diario de negocios


Algunos investigadores de inteligencia artificial han hecho afirmaciones optimistas acerca de que las tecnolog铆as pronto alcanzar谩n la conciencia, pero muchos otros descartan r谩pidamente esas afirmaciones.

Algunos investigadores de inteligencia artificial han hecho afirmaciones optimistas acerca de que las tecnolog铆as pronto alcanzar谩n la conciencia, pero muchos otros descartan r谩pidamente esas afirmaciones.Cr茅dito...Laura Morton para The New York Times


Pornico becaycade metz

12 de junio de 2022

SAN FRANCISCO (AP) — Recientemente, Google coloc贸 a un ingeniero en licencia paga despu茅s de desestimar su afirmaci贸n de que su inteligencia artificial es inteligente, lo que puso de manifiesto otro altercado sobre la tecnolog铆a m谩s avanzada de la empresa.


Blake Lemoine, ingeniero de software s茅nior en la organizaci贸n de inteligencia artificial responsable de Google, dijo en una entrevista que lo suspendieron el lunes. El departamento de recursos humanos de la empresa dijo que hab铆a violado la pol铆tica de confidencialidad de Google. El d铆a antes de su suspensi贸n, dijo Lemoine, entreg贸 documentos a la oficina de un senador de EE. UU., alegando que proporcionaban evidencia de que Google y su tecnolog铆a participaban en discriminaci贸n religiosa.


Google dijo que sus sistemas imitaban los intercambios conversacionales y pod铆an hablar sobre diferentes temas, pero no ten铆an conciencia. “Nuestro equipo, incluidos especialistas en 茅tica y tecn贸logos, ha revisado las preocupaciones de Blake seg煤n nuestros Principios de IA y le ha informado que la evidencia no respalda sus afirmaciones”, dijo Brian Gabriel, un portavoz de Google, en un comunicado. “Algunos en la comunidad de IA m谩s amplia est谩n considerando la posibilidad a largo plazo de una IA sensible o general, pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son sensibles”. El Washington Post fue el primero en informar sobre la suspensi贸n del Sr. Lemoine.


Durante meses, Lemoine se pele贸 con los gerentes, ejecutivos y recursos humanos de Google por su sorprendente afirmaci贸n de que el modelo de lenguaje para aplicaciones de di谩logo (LaMDA, por sus siglas en ingl茅s) de la empresa ten铆a conciencia y alma. Google dice que cientos de sus investigadores e ingenieros han conversado con LaMDA, una herramienta interna, y llegaron a una conclusi贸n diferente a la de Lemoine. La mayor铆a de los expertos en inteligencia artificial creen que la industria est谩 muy lejos de la sensibilidad inform谩tica.


Algunos investigadores de IA han hecho durante mucho tiempo afirmaciones optimistas acerca de que estas tecnolog铆as pronto alcanzar谩n la conciencia, pero muchos otros son extremadamente r谩pidos en descartar estas afirmaciones. “Si usaras estos sistemas, nunca dir铆as esas cosas”, dijo Emaad Khwaja, investigador de la Universidad de California, Berkeley, y la Universidad de California, San Francisco, que est谩 explorando tecnolog铆as similares.


Leer m谩s sobre Inteligencia Artificial

¿Son reales estas personas?: creamos nuestro propio sistema de inteligencia artificial para comprender lo f谩cil que es para una computadora generar caras falsas .

Imitando la vida: los nuevos sistemas de IA pueden escribir prosa original  y generar una imagen  a tu disposici贸n. Las implicaciones podr铆an ser profundas .

¿Qu茅 pas贸 con Watson? : Se supon铆a que la supercomputadora de IBM transformar铆a las industrias y generar铆a riqueza para la empresa. Ninguna ambici贸n ha dado resultado .

Serie AI/Vida real: desde la identificaci贸n de trastornos mentales  hasta la fabricaci贸n de chatbots m谩s inteligentes , The Times analiza el potencial de la IA para resolver problemas cotidianos .

Mientras persegu铆a a la vanguardia de la IA, la organizaci贸n de investigaci贸n de Google ha pasado los 煤ltimos a帽os envuelta en esc谩ndalos y controversias. Los cient铆ficos de la divisi贸n y otros empleados se han peleado regularmente por cuestiones de tecnolog铆a y personal en episodios que a menudo se han extendido a la arena p煤blica. En marzo, Google despidi贸 a un investigador que hab铆a tratado de discrepar p煤blicamente con el trabajo publicado de dos de sus colegas. Y los despidos de dos investigadores de 茅tica de IA, Timnit Gebru y Margaret Mitchell, despu茅s de que criticaran los modelos de lenguaje de Google, han seguido ensombreciendo al grupo.


Destacados


Tom Hanks lo explica todo


A medida que el Gran Colisionador de Hadrones se acelera, las esperanzas de los f铆sicos se disparan


¿Pueden los suplementos realmente ayudar con la depresi贸n o la ansiedad?



Blake Lemoine en 2005, cuando era especialista del Ej茅rcito de EE. UU.

Blake Lemoine en 2005, cuando era especialista del Ej茅rcito de EE. UU.Cr茅dito...Alex Grimm/Reuters




El Sr. Lemoine, un veterano militar que se describi贸 a s铆 mismo como sacerdote, ex convicto e investigador de IA, les dijo a ejecutivos de Google tan importantes como Kent Walker, presidente de asuntos globales, que cre铆a que LaMDA era un ni帽o de 7 u 8 a帽os. a帽os. Quer铆a que la compa帽铆a buscara el consentimiento del programa de computadora antes de realizar experimentos con 茅l. Sus afirmaciones se basaron en sus creencias religiosas, que dijo que el departamento de recursos humanos de la empresa discrimin贸.


“Han cuestionado repetidamente mi cordura”, dijo Lemoine. “Dijeron: '¿Ha sido revisado por un psiquiatra recientemente?'”. En los meses previos a que lo pusieran en licencia administrativa, la compa帽铆a le hab铆a sugerido que tomara una licencia por salud mental.


Yann LeCun, jefe de investigaci贸n de IA en Meta y figura clave en el auge de las redes neuronales, dijo en una entrevista esta semana que este tipo de sistemas no son lo suficientemente poderosos para lograr una verdadera inteligencia.


La tecnolog铆a de Google es lo que los cient铆ficos llaman una red neuronal , que es un sistema matem谩tico que aprende habilidades mediante el an谩lisis de grandes cantidades de datos. Al identificar patrones en miles de fotos de gatos, por ejemplo, puede aprender a reconocer a un gato.


En los 煤ltimos a帽os, Google y otras empresas l铆deres han dise帽ado redes neuronales que aprendieron de enormes cantidades de prosa , incluidos miles de libros in茅ditos y art铆culos de Wikipedia. Estos "modelos de lenguaje grande" se pueden aplicar a muchas tareas. Pueden resumir art铆culos, responder preguntas, generar tweets e incluso escribir publicaciones de blog.


Pero son extremadamente defectuosos. A veces generan una prosa perfecta. A veces generan tonter铆as. Los sistemas son muy buenos para recrear patrones que han visto en el pasado, pero no pueden razonar como un humano.


Reacciones

Publicar un comentario

0 Comentarios