Anthropic abrió a usuarios gratuitos de Claude su función de "memoria" para recordar contexto entre conversaciones, en un intento por retener el fuerte flujo de nuevos usuarios que llegó tras su choque con el Departamento de Defensa de EE. UU. La decisión ocurre mientras la compañía enfrenta presiones políticas y comerciales, y en una semana marcada por un apagón de varias horas y por el avance de OpenAI dentro de redes clasificadas del Pentágono.
Core Scientific, el gigante minero de Bitcoin, decepciona con ingresos de solo USD $79,8 millones en el Q4 2025 y vende USD $175 millones en BTC para girar hacia la IA. ¿El ocaso de la minería o el amanecer de los centros de datos de vanguardia?
La alianza de OpenAI con el Departamento de Defensa de EE. UU., rebautizado como "Departamento de Guerra" bajo la administración Trump, detonó una reacción inmediata de usuarios: las desinstalaciones de ChatGPT se dispararon y, en paralelo, Claude de Anthropic trepó a la cima de la App Store.
En un momento en que los agentes de IA se vuelven "mainstream", el autor Nate B Jones plantea que el verdadero cuello de botella ya no es el modelo, sino la memoria: un sistema propio, semántico y legible por agentes que unifique el contexto entre herramientas y evite el lock-in.
En una conversación reciente, el inversionista y figura del ecosistema cripto Haseeb Qureshi planteó una tesis incómoda: las blockchains y los smart contracts no están optimizados para la mente humana, sino para agentes de inteligencia artificial. La idea abre un debate sobre seguridad, interfaces, responsabilidad legal y un riesgo central: si un agente soberano no puede ir a la cárcel, su "ventaja comparativa" podría inclinarse hacia el cibercrimen.