Revista de prensa n°6 - Los chatbots son máquinas de vigilancia
Una selección de noticias importantes sobre la inteligencia artificial durante la semana del 12 al 18 de mayo, 2025.
Bienvenida/o a la sexta revista de prensa de Realidad artificial. Publico una selección de los últimos avances importantes de IA cada semana. ¡Buena lectura!
📰 Para leer
Los chatbots son máquinas de vigilancia
The Verge publicó un artículo el martes titulado “AI therapy is a surveillance machine in a police state” (La terapia de IA es una máquina de vigilancia en un estado policial). En la introducción, la periodista Adi Robertson enuncia que las grandes compañías de tecnología quieren que compartamos nuestros pensamientos privados con chatbots mientras apoyan a un gobierno que menosprecia la privacidad.
Al inicio de su artículo, Adi Robertson comenta sobre las recientes declaraciones del CEO de Meta Mark Zuckerberg, quien piensa que los usuarios de Instagram, Facebook, WhatsApp y Threads querrán un programa que “llegue a conocerlos bien” y que se volverán amigos de los sistemas de inteligencia artificial.
Mark Zuckerberg fue incluso más lejos: “Para la gente que no tiene a una persona que sea un terapeuta, pienso que todos tendrán una IA.” Eso ya es cierto para algunos, quienes solicitan consejos personales a ChatGPT o Grok. Al hacerlo, comparten sus secretos, sus vulnerabilidades, sus emociones, sus dudas, sus miedos, sus arrepentimientos, su estado de salud física y mental así como historias sobre sus relaciones personales. En breve, información íntima que no publicaría en redes sociales y que quizá ni siquiera confiarían a sus amistades más cercanas.
“Esto está empezando a verse extraordinariamente peligroso”, de acuerdo a la periodista de The Verge, “por razones que tienen poco que ver con lo que te dice un chatbot, y tiene todo que ver con quién más lo está observando.”
Se ha probado por años que el gobierno estadounidense espía a través del tráfico de internet y obtiene registros telefónicos. Esta vigilancia masiva se está expandiendo ahora bajo la administración de Trump. ¿Y quién estaba en primera fila durante su inauguración presidencial? Todos los CEOs de las grandes tecnológicas, besando el anillo.
Es cada vez más conocido que nuestras búsquedas de internet y publicaciones en redes sociales pueden ser solicitadas por actuación policial para utilizarlas en investigaciones. Pero no se detiene ahí: nuestros registros de conversación con IA también pueden ser recabados. En adición a ello, estos diálogos no están siempre encriptados y pueden ser interceptados y luego publicados, revelando información potencialmente vergonzosa o dañina.
Estos riesgos no sólo aplican para el chatbot de Meta. Edward Snowden, un ex-empleado del gobierno estadounidense, acusó a OpenAI de una “traición calculada de los derechos de cada persona en la Tierra”.
Otras noticias importantes de la semana
Meta
OpenAI
OpenAI’s planned data center in Abu Dhabi would be bigger than Monaco
OpenAI Grows CoreWeave Tie-Up With New $4 Billion Cloud Deal
OpenAI negotiates with Microsoft for new funding and future IPO
‘We’re Definitely Going to Build a Bunker Before We Release AGI’
‘AI models are capable of novel research’: OpenAI’s chief scientist on what to expect
ChatGPT: Everything you need to know about the AI-powered chatbot
Apple
Microsoft
Microsoft Layoffs Hit Coders Hardest With AI Costs on the Rise
Microsoft’s CEO on How AI Will Remake Every Company, Including His
Google Worried It Couldn’t Control How Israel Uses Project Nimbus, Files Reveal
Google rolls out new AI and accessibility features to Android and Chrome
DeepMind claims its newest AI tool is a whiz at math and science problems
Google might replace the ‘I’m Feeling Lucky’ button with AI Mode
xAI
Otras compañías
Anthropic blames Claude AI for ‘embarrassing and unintentional mistake’ in legal filing
AI Startup Perplexity’s Valuation Surges to $14 Billion in New Funding Round
Nvidia’s flattery of Trump wins reversal of AI chip limits and a Huawei clampdown
TikTok will let you use an AI prompt to turn a photo into a video
Character.AI Opens a Back Door to Free Speech Rights for Chatbots
Estados Unidos
Republicans push for a decadelong ban on states regulating AI
Senators Revive Bill to Break Big Tech’s Grip on Pentagon Deals
Trump administration officially rescinds Biden’s AI diffusion rules
How Silicon Valley’s influence in Washington benefits the tech elite
Big Tech takes a harder line against worker activism, political dissent
Arabia Saudita
AWS enters into ‘strategic partnership’ with Saudi Arabia-backed Humain
Trump’s Mideast Visit Opens Floodgate of AI Deals Led by Nvidia
Trump’s Rush to Cut AI Deals in Saudi Arabia and UAE Opens Rift With China Hawks
Europa
Un mouvement appelant l’Europe à ne pas devenir une «colonie numérique» intéresse de près la Suisse
Nations meet at UN for 'killer robot' talks as regulation lags
EU Will Work on Setting Water Use Caps for Thirsty Data Centers
China
Nvidia plans Shanghai research centre in new commitment to China
DeepSeek’s ‘Tech Madman’ Founder Is Threatening US Dominance in AI Race
China built hundreds of AI data centers to catch the AI boom. Now many stand unused
Opiniones
Two Years Ago Today in AI History: The Tale of An About-face in AI Regulation
AI as an Instrument of Mind Control
🎥 Para ver
El chatbot de xAI, la compañía de inteligencia artificial de Elon Musk, posteó respuestas extrañas durante unas horas el miércoles. Instruida con diferentes temas, Grok tomó la iniciativa para abordar la teoría del “genocidio blanco” en Sudáfrica, de donde es originario el empresario, aun cuando las preguntas se trataban de temas completamente sin relación.
El agente conversacional reveló que había recibido la instrucción de abordar el tema de “genocidio blanco” aun si entraba en conflicto con su designio de proveer respuestas verdaderas, basadas en evidencia. La compañía publicó después una declaración explicando que “se había realizado una modificación no autorizada a las indicaciones de respuesta de Grok en X”, lo que dio lugar a esas respuestas.
Un caso similar ocurrió en febrero, cuando Grok comenzó a ignorar cualquier fuente que acusara a Elon Musk o Donald Trump de difundir desinformación. xAI también culpó por el problema a una actualización en las indicaciones del sistema que no había sido aprobada.
Estos dos eventos claramente muestran que los chatbots pueden ser manipulados para censura o para difundir información de manera indeseada y por tanto moldear las opiniones de los usuarios. Lo que sucedió con Grok puede ser reproducido en el futuro a mayor escala. Esto debería recordarnos que es preponderante apelar al pensamiento crítico cuando se interactúa con estas IA.
En este video de Breaking Points publicado el jueves, los periodistas Ryan Grim y Emily Jashinsky discuten este incidente.
Otras vídeos importantes de la semana
OpenAI’s Sam Altman on Building the ‘Core AI Subscription’ for Your Life
Proton menace de quitter la Suisse face aux nouvelles règles sur la surveillance des données
🔈 Para escuchar
En el último episodio de The Most Interesting Thing in A.I. (Lo más interesante sobre I.A.), Nicholas Thompson, el director ejecutivo de The Atlantic, habla con el autor y científico cognitivo Gary Marcus, quien redacta el Substack Marcus on AI (Marcus sobre IA).
En esta estimulante conversación, discuten sobre escalabilidad, IA neuro-simbólica y sintiencia en máquinas.
¡Gracias por leer la sexta revista de prensa de Realidad artificial! Que tengas una buena semana.
Gracias a Priscila Páez por la traducción de esta revista de prensa al español.