Los chatbots son máquinas de vigilancia | Revista de prensa n°6
Una selección de noticias importantes sobre la inteligencia artificial durante la semana del 12 al 18 de mayo, 2025.
Bienvenida/o a la sexta revista de prensa de Realidad artificial. Publico una selección de los últimos avances importantes de IA cada semana. ¡Buena lectura!
📰 Para leer
Los chatbots son máquinas de vigilancia
The Verge publicó un artículo el martes titulado “AI therapy is a surveillance machine in a police state” (La terapia de IA es una máquina de vigilancia en un estado policial). En la introducción, la periodista Adi Robertson enuncia que las grandes compañías de tecnología quieren que compartamos nuestros pensamientos privados con chatbots mientras apoyan a un gobierno que menosprecia la privacidad.
Al inicio de su artículo, Adi Robertson comenta sobre las recientes declaraciones del CEO de Meta Mark Zuckerberg, quien piensa que los usuarios de Instagram, Facebook, WhatsApp y Threads querrán un programa que “llegue a conocerlos bien” y que se volverán amigos de los sistemas de inteligencia artificial.
Mark Zuckerberg fue incluso más lejos: “Para la gente que no tiene a una persona que sea un terapeuta, pienso que todos tendrán una IA.” Eso ya es cierto para algunos, quienes solicitan consejos personales a ChatGPT o Grok. Al hacerlo, comparten sus secretos, sus vulnerabilidades, sus emociones, sus dudas, sus miedos, sus arrepentimientos, su estado de salud física y mental así como historias sobre sus relaciones personales. En breve, información íntima que no publicaría en redes sociales y que quizá ni siquiera confiarían a sus amistades más cercanas.
“Esto está empezando a verse extraordinariamente peligroso”, de acuerdo a la periodista de The Verge, “por razones que tienen poco que ver con lo que te dice un chatbot, y tiene todo que ver con quién más lo está observando.”
Se ha probado por años que el gobierno estadounidense espía a través del tráfico de internet y obtiene registros telefónicos. Esta vigilancia masiva se está expandiendo ahora bajo la administración de Trump. ¿Y quién estaba en primera fila durante su inauguración presidencial? Todos los CEOs de las grandes tecnológicas, besando el anillo.
Es cada vez más conocido que nuestras búsquedas de internet y publicaciones en redes sociales pueden ser solicitadas por actuación policial para utilizarlas en investigaciones. Pero no se detiene ahí: nuestros registros de conversación con IA también pueden ser recabados. En adición a ello, estos diálogos no están siempre encriptados y pueden ser interceptados y luego publicados, revelando información potencialmente vergonzosa o dañina.
Estos riesgos no sólo aplican para el chatbot de Meta. Edward Snowden, un ex-empleado del gobierno estadounidense, acusó a OpenAI de una “traición calculada de los derechos de cada persona en la Tierra”.
Siete noticias importantes de la semana
Advocacy group threatens Meta with injunction over data-use for AI training (Reuters)
Republicans push for a decadelong ban on states regulating AI (The Verge)
Google Worried It Couldn’t Control How Israel Uses Project Nimbus, Files Reveal (The Intercept)
Why OpenAI Is Fueling the Arms Race It Once Warned Against (Bloomberg)
Apple to Support Brain-Implant Control of Its Devices (The Wall Street Journal)
Anthropic blames Claude AI for ‘embarrassing and unintentional mistake’ in legal filing (The Verge)
French army hopes for combat-ready robots by 2040 (The Straits Times)
Lees los demás artículos de la semana que he seleccionado haciendo clic aquí.
🎥 Para ver
El chatbot de xAI, la compañía de inteligencia artificial de Elon Musk, posteó respuestas extrañas durante unas horas el miércoles. Instruida con diferentes temas, Grok tomó la iniciativa para abordar la teoría del “genocidio blanco” en Sudáfrica, de donde es originario el empresario, aun cuando las preguntas se trataban de temas completamente sin relación.
El agente conversacional reveló que había recibido la instrucción de abordar el tema de “genocidio blanco” aun si entraba en conflicto con su designio de proveer respuestas verdaderas, basadas en evidencia. La compañía publicó después una declaración explicando que “se había realizado una modificación no autorizada a las indicaciones de respuesta de Grok en X”, lo que dio lugar a esas respuestas.
Un caso similar ocurrió en febrero, cuando Grok comenzó a ignorar cualquier fuente que acusara a Elon Musk o Donald Trump de difundir desinformación. xAI también culpó por el problema a una actualización en las indicaciones del sistema que no había sido aprobada.
Estos dos eventos claramente muestran que los chatbots pueden ser manipulados para censura o para difundir información de manera indeseada y por tanto moldear las opiniones de los usuarios. Lo que sucedió con Grok puede ser reproducido en el futuro a mayor escala. Esto debería recordarnos que es preponderante apelar al pensamiento crítico cuando se interactúa con estas IA.
En este video de Breaking Points publicado el jueves, los periodistas Ryan Grim y Emily Jashinsky discuten este incidente.
Siete vídeos importantes de la semana
Ves los demás videos de la semana que he seleccionado haciendo clic aquí.
🔈 Para escuchar
En el último episodio de The Most Interesting Thing in A.I. (Lo más interesante sobre I.A.), Nicholas Thompson, el director ejecutivo de The Atlantic, habla con el autor y científico cognitivo Gary Marcus, quien redacta el Substack Marcus on AI (Marcus sobre IA).
En esta estimulante conversación, discuten sobre escalabilidad, IA neuro-simbólica y sintiencia en máquinas.
¡Gracias por leer la sexta revista de prensa de Realidad artificial! Que tengas una buena semana.
Gracias a Priscila Páez por la traducción de esta revista de prensa al español.