Estás leyendo el boletín de IA “Naturalmente inteligente” a partir del 19 de febrero de 2026. Para recibir el boletín por correo electrónico todos los jueves,regístrate aquí.
Ay. ¿Un fragmento de vídeo de IA sin etiquetar en una emisora de servicio público? Y eso también con una marca de agua de vídeo AI Sora. Abierto AI? Esto es malo, es un error de principiante, esto es exactamente lo que no debería suceder. Pero lo es. En una contribución de ZDF periódicos de hoyen el que se podían ver videos en las redes sociales de las operaciones de la fuerza de deportación estadounidense ICE. Mi colega David Will comenta con razón: así no es como se genera confianza. Especialmente cuando, como aquí ZDF, cometieron un error antes de disculparse profusamente y eliminar la publicación.
Esto es lo que necesitas saber: el Pentágono amenaza a Anthropic
Como bajo una lupa, actualmente se puede observar cuánto poder tiene o no el gobierno de Estados Unidos sobre las empresas tecnológicas estadounidenses. EL Pentágono está “cerca” de clasificar al desarrollador de Claude Anthropic como un “riesgo para la cadena de suministro”, informó el portal de noticias axios esta semana. Esto significaría que las empresas que colaboran con el Departamento de Defensa de EE. UU. ya no podrían utilizar los modelos de Anthropic. Esto tendría enormes consecuencias para la empresa de IA.
Esto corre el riesgo de intensificar una disputa que ya lleva mucho tiempo latente entre Anthropic y el Departamento de Defensa de Estados Unidos. La pregunta es: ¿bajo qué condiciones puede el personal militar estadounidense utilizar las capacidades del modelo de inteligencia artificial Claude de Anthropic? Por cierto, es el único modelo de lenguaje que actualmente se puede utilizar en entornos clasificados. Según informes de los medios, Claude también jugó un papel en el arresto del presidente venezolano Nicolás Maduro.
El Pentágono quiere que Anthropic y otros tres importantes desarrolladores de IA (OpenAI, Google y xAI) permitan al ejército estadounidense utilizar su tecnología para “todos los fines legales”.
Lo que no encaja en Antrópico. Su jefe, Dario Amodei, es conocido por advertir repetidamente sobre los peligros de la inteligencia artificial y al mismo tiempo por ser un pragmático que quiere estar a la vanguardia de la carrera hacia la superinteligencia. Se dice que su empresa es ruidosa. axios está dispuesto a debilitar sus condiciones de uso, pero se opone al uso de Claude para la vigilancia masiva de los estadounidenses y en relación con sistemas de armas autónomos que funcionan sin intervención humana.
Si todavía operáramos en el clima tecnológico de hace unos años, Anthropic se encontraría en una posición completamente normal. Muchas empresas de Silicon Valley ahora están más que felices de colaborar con el ejército y el Servicio Secreto.
Queda por ver hasta qué punto Anthropic insistirá en su posición. En esencia, lo que estamos viendo aquí es evidencia de cuán serios son realmente en su compromiso con una IA segura y responsable.
Deberías pensar en esto: Happs, el desarrollador de OpenClaw ya no está
Peter Steinberger, el hombre detrás del aclamado agente de IA OpenClaw, también escribió sobre “RESPONSABILIDAD” esta semana. El austriaco tiene un nuevo trabajo esta semana: con el desarrollador de ChatGPT OpenAI. Su jefe, Sam Altman, anunció personalmente los cambios de personal el domingo y elogió a Steinberger como un “genio”.
Steinberger no sólo se divirtió en silencio, sino que también hizo un pequeño berrinche durante el viaje de Europa a Estados Unidos. Su He se quejó de que, como fundador, tuvo que luchar con la Ley de Protección de Inversiones y las regulaciones sobre el tiempo de trabajo. Mientras estaba en OpenAI, la mayoría de la gente trabajaba seis o siete días a la semana. Declaraciones que emocionaron a muchos medios económicos alemanes. Porque: fuga de cerebros, no es un caso aislado, adiós país de la innovación, ¡escúchalo!
Yo por mi parte soy así vieja Europa y un freno teutónico a la innovación, por lo que no me parece tan absurdo hablar de responsabilidad con un producto como OpenClaw. Porque con gran autonomía no se pueden evitar grandes riesgos. Después de todo, estamos hablando de un agente de inteligencia artificial que podría vaciar mi cuenta o destruir mi computadora, que podría revisar correos electrónicos privados o revelar secretos de la empresa. Lo que la metacorporación (no especialmente europea) considera tan peligroso que prohíbe a sus empleados instalar OpenClaw en sus dispositivos de trabajo.
Puedes probar esto: Código Claude
Desde hace algún tiempo leemos aquí y allá lo impresionados que están incluso los programadores más famosos por las habilidades de Claude Code, por así decirlo, la versión de programación del chatbot del mismo nombre. Pero: ¿en qué te ayuda Claude Code si no sabes programarte? Mi colega Henrik Oerding lo probó para ZEIT. Con total éxito: ahora tiene una preciosa página de inicio.
Esto requirió: 18 euros al mes para la versión Pro, nueve sesiones de media hora con la IA, no tener miedo de trabajar desde la línea de comandos y, bueno: un amigo desarrollador de software que luego volvió a mirar el código de la IA. Luego encontró una pequeña brecha de seguridad. En definitiva, Henrik quedó definitivamente impresionado. Lo cual es decir algo: este hombre no siempre está entusiasmado sólo porque dice IA en alguna parte.