Geoffrey Hinton, conocido por algunos como el “Padrino de la IA”, dimite de Google, expresando su preocupación por los riesgos potenciales que plantea esta tecnología.
Geoffrey Hinton, una figura prominente en el campo de la IA, dimitió de Google la semana pasada, aduciendo preocupación por los peligros potenciales de la tecnología de la que ayudó a ser pionero, según informa The New York Times. A veces llamado el “Padrino de la IA”, Hinton anunció su dimisión en una declaración al NYT, en la que expresaba nuevos temores sobre la tecnología de IA y su deseo de discutirlos públicamente.
Hinton informó a Google de su dimisión el mes pasado y habló directamente con el CEO Sundar Pichai el jueves, aunque los detalles de su conversación no se hicieron públicos. En su entrevista con el NYT, Hinton expresó su arrepentimiento por algunos aspectos del trabajo de su vida, afirmando: “Me consuelo con la excusa normal: si yo no lo hubiera hecho, otro lo habría hecho”. También expresó su preocupación por la proliferación automatizada de información, vídeos y fotos falsas en Internet.
El pionero de la IA reconoció que su edad influyó en su decisión de abandonar Google. “Tengo 75 años, así que es hora de jubilarse”, dijo el científico, citado por la BBC. Hinton se unió a Google hace una década para colaborar en el desarrollo de su tecnología de IA. En un tweet el lunes, aclaró que dejó Google no para criticar a la empresa, sino para expresar libremente sus preocupaciones sobre los riesgos de la IA. “Google ha actuado de forma muy responsable”, señaló.
El trabajo pionero de Hinton sobre el aprendizaje profundo y las redes neuronales ha sentado las bases de los sistemas avanzados de IA, incluido ChatGPT. En 2012, él y dos de sus estudiantes de posgrado de la Universidad de Toronto desarrollaron una tecnología que sirve de base conceptual para los sistemas de IA considerados fundamentales para el futuro de los principales actores de la industria tecnológica.
La preocupación de Hinton por los riesgos de la IA coincide con la creciente inquietud de legisladores, expertos en tecnología y grupos de defensa de que los chatbots de IA difundan noticias falsas y desplacen puestos de trabajo. La reciente atención en torno a ChatGPT ha provocado una intensa competencia entre las empresas tecnológicas para crear herramientas de IA similares, y algunos expertos temen que se estén pasando por alto las preocupaciones en materia de seguridad.
Hinton dijo a la BBC que algunos de los peligros de los chatbots de IA eran “bastante aterradores”. “Ahora mismo, no son más inteligentes que nosotros, por lo que yo sé. Pero creo que pronto podrían serlo”.
En inteligencia artificial, las redes neuronales son sistemas similares al cerebro humano en la forma en que aprenden y procesan la información. Permiten a las IA aprender de la experiencia, como lo haría una persona. Esto se denomina aprendizaje profundo.
Hinton agregó que los chatbots pronto podrían superar el nivel de información que atesora un cerebro humano. “Ahora mismo, lo que estamos viendo es que cosas como la GPT-4 eclipsan a una persona en la cantidad de conocimientos generales que posee y la eclipsan con creces. En términos de razonamiento, no es tan bueno, pero ya hace razonamientos sencillos”, dijo. “Y dado el ritmo de progreso, esperamos que las cosas mejoren bastante rápido. Así que debemos preocuparnos por eso”.
Añadió: “He llegado a la conclusión de que el tipo de inteligencia que estamos desarrollando es muy diferente de la inteligencia que tenemos. Nosotros somos sistemas biológicos y éstos son sistemas digitales. Y la gran diferencia es que con los sistemas digitales se tienen muchas copias del mismo conjunto de pesos, del mismo modelo del mundo. Y todas estas copias pueden aprender por separado pero comparten sus conocimientos al instante. Así que es como si tuviera 10.000 personas y cada vez que una aprende algo, todos lo saben automáticamente. Y así es como estos chatbots pueden saber mucho más que una sola persona”.
En marzo, cientos de destacadas figuras de la industria tecnológica firmaron una carta en la que pedían que se detuviera el desarrollo de los sistemas de IA más potentes durante al menos seis meses, citando graves riesgos sociales y humanos. Hinton declaró a la BBC que algunos riesgos asociados a los chatbots de IA eran “bastante aterradores”, advirtiendo de que podrían superar la inteligencia humana y ser explotados por actores malintencionados. También expresó su preocupación por las implicaciones económicas y sociales de la IA avanzada, señalando que aunque los chatbots como ChatGPT pueden trabajar junto a los humanos, tienen el potencial de sustituir tareas repetitivas y alterar el mercado laboral.
Ilustración: fotograma, BBC