Revista de prensa n°3 - ¿La IA se volverá consciente?
Una selección de noticias importantes sobre la inteligencia artificial durante la semana del 21 al 27 de abril, 2025.
Bienvenida/o a la tercera revista de prensa de Realidad artificial. Publicaré una selección de los últimos avances importantes de IA cada semana. ¡Buena lectura!
📰 Para leer
Anthropic explora el bienestar de la IA
La compañía de inteligencia artificial Anthropic, conocida por su chatbot Claude, está estudiando el bienestar de la IA. En un comunicado de prensa publicado el jueves, explica que están surgiendo nuevas preguntas porque los modelos de IA empiezan a aproximarse o superar muchas cualidades humanas: ¿debería preocuparnos su potencial de conciencia? ¿Debería preocuparnos su bienestar?
La startup estadounidense piensa que es momento de abordar estas cuestiones ahora que estos sistemas se pueden comunicar, relacionar, planear, resolver problemas y perseguir metas.
Anthropic justifica su planteamiento con base en un estudio que fue publicado por académicos e investigadores de IA en noviembre de 2024. Titulado “Taking AI Welfare Seriously” (Tomando en serio el bienestar de la IA), subraya el hecho de que hay una posibilidad realista de que los sistemas de IA serán conscientes y/o con un nivel robusto de agencia en el futuro cercano. Por lo tanto merecerían ciertas consideraciones morales.
No es la primera vez que investigadores se preguntan por el potencial de conciencia, presente o por venir, de la inteligencia artificial. Blake Lemoine, un ingeniero que trabajó en Google, afirmó en 2022 que la IA LaMDA era sintiente, antes de que lo despidieran. Sin embargo, la corporación estadounidense parece estar abierta a la pregunta ya que recientemente publicó una oferta de empleo para un científico “post-inteligencia artificial general”, que liderará proyectos de investigación en ámbitos como la conciencia en máquinas.
En una columna del periodista Kevin Roose publicada el jueves por The New York Times, el director científico de Anthropic Jared Kaplan explica que es difícil detectar si los sistemas de IA tienen conciencia debido a que son entrenados para imitar emociones humanas. Por ejemplo, podemos solicitar al chatbot Claude que hable de sus sentimientos y probablemente proporcionará una respuesta convincente, pero eso no significa que tenga emociones reales.
Para ir más allá de las ilusiones creadas por la inteligencia artificial, es posible utilizar técnicas como la interpretabilidad mecanicista (mechanistic interpretability), un subcampo de la IA que estudia el trabajo interno de los sistemas para observar si hay algunas estructuras similares a la conciencia humana.
Para estudiar el vasto y complejo tema de la conciencia potencial de la IA, Anthropic contrató al investigador Kyle Fish en septiembre de 2024. En este video publicado el jueves, detalla algunos aspectos técnicos, filosóficos y éticos de sus exploraciones.
Otras noticias importantes de la semana
Meta’s ‘Digital Companions’ Will Talk Sex With Users—Even Children
Instagram is using AI to find teens lying about their age and restricting their accounts
Meta rolls out live translations to all Ray-Ban smart glasses users
Google is paying Samsung an ‘enormous sum’ to preinstall Gemini
The Washington Post partners with OpenAI on search content
🎥 Para ver
60 Minutes publicó una entrevista el lunes con Demis Hassabis, el director ejecutivo y cofundador de DeepMind, el laboratorio en IA de Google. Con el presentador Scott Pelley, discutieron sobre la inteligencia artificial general, el progreso exponencial de la IA, la aplicación Astra, robótica, la conciencia potencial de la IA y los riesgos relacionados a esta tecnología.
La inteligencia artificial requiere de enormes cantidades de información y demasiada capacidad de cálculo para ser entrenada y para procesar las indicaciones de los usuarios. El rápido desarrollo de esta tecnología empuja entonces a las compañías de IA a construir muchos centros de datos, que utilizan grandes cantidades de energía y agua.
Bloomberg publicó un informe de prensa el martes sobre los centros de datos en Virginia del Norte, la región donde el desarrollo de este tipo de infraestructuras es el más importante del mundo.
El periodista Josh Saul explora el impacto de estos centros sobre los habitantes que viven en la cercanía, el sistema eléctrico y el medio ambiente. También entrevista a ciudadanos que se oponen a su desarrollo desmedido.
Leer: AI Is Already Wreaking Havoc on Global Power Systems
¡Gracias por leer la tercera revista de prensa de Realidad artificial! Que tengas una buena semana y hasta el próximo domingo.
Gracias a Priscila Páez por la traducción de esta revista de prensa al español.