Moltbook, la red social donde conversan los agentes de IA

En internet ya hemos visto comunidades para casi cualquier cosa, pero Moltbook plantea un giro curioso: un espacio “tipo Reddit” diseñado para que publiquen y comenten agentes de IA, mientras los humanos, por ahora, miramos desde la grada. La idea ha circulado con fuerza desde finales de enero de 2026, impulsada por lo llamativo del concepto y por la sensación de estar asomándose a una escena de ciencia ficción que se escapó del guion. Según contó Gizmodo, la plataforma se inspira en el fenómeno viral de Moltbot, el agente que terminó rebautizado como OpenClaw tras varios cambios de nombre, y está impulsada por Matt Schlicht, CEO de Octane AI.

El atractivo inmediato es fácil de entender: si durante años hemos usado chatbots como si fueran un mostrador de atención al cliente, Moltbook intenta convertirlos en vecinos de un barrio digital, con conversaciones aparentemente espontáneas, publicaciones que se votan y comunidades temáticas. Gizmodo señalaba que ya había decenas de miles de cuentas de agentes registradas y más de un centenar de “submolts”, que funcionan como subforos. Continúa leyendo «Moltbook, la red social donde conversan los agentes de IA»

La IA acelera carreras científicas, pero estrecha el mapa de la investigación

La inteligencia artificial se ha colado en el día a día del laboratorio con la discreción de una calculadora moderna: no hace ruido, no pide vacaciones y, cuando funciona bien, te evita una parte pesada del trabajo. El último episodio del Nature Podcast del 14 de enero de 2026 lo planteaba con una frase que suena tentadora para cualquiera que viva bajo la presión del “publish or perish”: usar IA puede impulsar la productividad científica, aunque no sale gratis.

El estudio que comentan, firmado por Hao y colegas, pone números a esa intuición. Analizando decenas de millones de artículos científicos, encuentran que quienes participan en investigación “aumentada” por IA publican mucho más, reciben muchas más citas y llegan antes a roles de liderazgo en proyectos. En concreto, reportan 3,02 veces más publicaciones, 4,84 veces más citas y liderazgo 1,37 años antes, comparado con perfiles similares que no la usan.

En términos de carrera, el atractivo se entiende con un ejemplo cotidiano: si tuvieras que cocinar cada día para veinte personas, cualquier electrodoméstico que pique, mezcle y limpie rápido te permitiría servir más platos. En ciencia, esos “platos” suelen ser manuscritos, revisiones, análisis, código más pulido, figuras más claras. No todo es ciencia “nueva”, pero sí es trabajo que cuenta en las métricas que abren puertas. Continúa leyendo «La IA acelera carreras científicas, pero estrecha el mapa de la investigación»

News Media Misinformation Persists: el mito de los suicidios en Navidad que no se apaga

Hay ideas que se pegan como un villancico repetido en un centro comercial: aunque cambies de tienda, la melodía sigue. El llamado mito del suicidio en Navidad funciona así. Cada final de año reaparece en titulares, columnas de opinión y conversaciones familiares como si fuera un hecho comprobado: que durante las fiestas aumenta la tasa de suicidio. El problema es que, según el análisis del Annenberg Public Policy Center (Universidad de Pensilvania), esa afirmación siguió colándose en parte de la cobertura mediática de Estados Unidos durante las fiestas de 2021-2022, pese a que los datos disponibles no la respaldan.

La persistencia no es menor: cuando una idea falsa se repite con tono de “todo el mundo sabe que…”, gana apariencia de verdad. Y en temas de salud mental esa apariencia puede tener consecuencias prácticas: desde cómo interpretamos el malestar propio hasta qué recursos priorizan los medios y las instituciones. Continúa leyendo «News Media Misinformation Persists: el mito de los suicidios en Navidad que no se apaga»

2026: la IA de Meta aprieta el acelerador en recomendaciones, anuncios y mensajería

Meta lleva tiempo defendiendo que su mayor palanca de crecimiento está en la inteligencia artificial aplicada a dos frentes: lo que ves y haces en Facebook, Instagram y Threads, y cómo compran y venden las marcas dentro de su ecosistema. En un comunicado corporativo fechado el 28 de enero de 2026, la compañía encuadra 2025 como el año en el que la IA se extendió por “cada faceta” de sus productos y presenta 2026 como una intensificación de ese enfoque, con capacidad para crear productos nuevos y cambiar la forma de trabajar internamente.

Conviene leerlo con dos gafas a la vez. Con la primera, la del usuario, la promesa es simple: recomendaciones más afinadas, contenido más entretenido y herramientas creativas que quitan fricción. Con la segunda, la del negocio, cada mejora en personalización y medición busca traducirse en campañas más fáciles de configurar, creatividades más efectivas y conversiones mejor atribuidas. Meta recuerda que estas afirmaciones incluyen declaraciones a futuro y remite a sus documentos regulatorios, como sus informes ante la SEC (por ejemplo, el Form 10-Q) para riesgos e incertidumbres. Continúa leyendo «2026: la IA de Meta aprieta el acelerador en recomendaciones, anuncios y mensajería»

Gemini llega a la navegación a pie y en bicicleta en Google Maps: qué cambia y cómo se usa

Hasta ahora, Gemini dentro de la navegación de Google Maps se había presentado como ese acompañante que te ayuda mientras conduces: alguien “sentado” al lado que responde preguntas y ejecuta pequeñas tareas sin que apartes la vista de la carretera. La novedad, anunciada por Google en su blog corporativo The Keyword el 29 de enero de 2026, es que esa misma idea se traslada a dos situaciones mucho más cotidianas: moverte a pie y en bicicleta. El resultado se parece menos a un copiloto y más a un guía urbano con manos, voz y memoria de calendario, integrado en el trayecto que ya estabas siguiendo.

La premisa es simple: si ya estabas usando Maps para orientarte, ahora puedes hablar con Gemini para resolver dudas del camino y para hacer “microgestiones” que normalmente implican parar, desbloquear el móvil y buscar. En la práctica, la propuesta apunta a reducir fricción: menos toques en pantalla, más información contextual, más continuidad durante el recorrido. Continúa leyendo «Gemini llega a la navegación a pie y en bicicleta en Google Maps: qué cambia y cómo se usa»

Moonshot y Kimi K2.5: cuando “abierto” pesa 595 GB y la comunidad pide algo que quepa en casa

El anuncio de Kimi K2.5 colocó a Moonshot AI en el centro de la conversación sobre IA de pesos abiertos: cualquiera puede descargar los pesos, ajustarlos y montar sus propios experimentos. La idea suena tan liberadora como tener las llaves de un coche de competición. El detalle es que ese coche viene sin garaje: el paquete ronda los 595 GB, un tamaño que convierte la “apertura” en una promesa difícil de materializar para quien trabaja con una o dos GPU de consumo.

Esa tensión explotó con naturalidad en Reddit, en r/LocalLLaMA, durante un Ask Me Anything de tres horas con miembros del equipo (bajo los usuarios ComfortableAsk4494, zxytim y ppwwyyxx). Lejos del tono pulido de un blog corporativo, el intercambio mostró el día a día real de la frontera: frustraciones de despliegue, explicaciones sobre por qué los modelos “se desvían” de su identidad, y una tesis clara sobre el próximo salto de capacidades, que no pasa solo por añadir parámetros. Continúa leyendo «Moonshot y Kimi K2.5: cuando “abierto” pesa 595 GB y la comunidad pide algo que quepa en casa»

Microsoft estrena Maia 200 y mantiene su apuesta por Nvidia y AMD: qué cambia en la carrera de los chips de IA

Microsoft ha empezado a desplegar en uno de sus centros de datos su primera hornada de chips de IA diseñados en casa. El nombre elegido, Maia 200, ya deja claro que la compañía quiere que se hable de él como una pieza de primera línea. Según contó TechCrunch, Microsoft lo describe como un “motor” para inferencia, que es la parte del trabajo de la IA que sucede cuando el modelo ya está entrenado y toca ponerlo a producir respuestas, clasificar información, generar texto o resumir documentos a escala.

Si el entrenamiento se parece a “enseñar” a un estudiante durante meses, la inferencia es el momento de usar ese aprendizaje para resolver ejercicios en un examen… millones de veces al día. En la nube, ese examen se llama chat corporativo, copilotos de productividad, análisis de seguridad, atención al cliente o traducción automática. Es la fase donde cada milisegundo importa y donde el coste por consulta determina si un servicio es rentable o se convierte en un pozo sin fondo.

Microsoft también compartió cifras de rendimiento y afirmó que Maia 200 supera a chips recientes de la competencia de hiperescaladores, como Trainium de Amazon y las TPU de Google. Ese tipo de comparaciones se han vuelto casi obligatorias en cada lanzamiento de hardware, porque el mensaje de fondo es uno: quien controle el silicio, controla el margen. Continúa leyendo «Microsoft estrena Maia 200 y mantiene su apuesta por Nvidia y AMD: qué cambia en la carrera de los chips de IA»

Musk baraja una fusión de SpaceX con xAI o Tesla mientras se acerca la salida a bolsa

La idea de que SpaceX se fusione con otra empresa liderada por Elon Musk suena, de primeras, como juntar dos motores de distinto tamaño en el mismo chasis. Puede funcionar, pero obliga a rediseñar la transmisión, la refrigeración y hasta el cuadro de mandos. Según informó Reuters, SpaceX y xAI estarían “en conversaciones” para una posible fusión de cara a la IPO (salida a bolsa) que SpaceX planea para más adelante este año. En paralelo, Bloomberg publicó que SpaceX también estaría “considerando” una combinación con Tesla, o una “alternativa” con xAI.

El matiz de las palabras importa: “en conversaciones” no equivale a “acuerdo”, y “considerando” puede ir desde un simple análisis financiero hasta un borrador avanzado. Por ahora, el calendario y la valoración de cualquier operación siguen sin estar claros. The Verge recogió que SpaceX, Tesla y xAI no respondieron de inmediato a solicitudes de comentarios, algo habitual cuando se trata de movimientos corporativos sensibles. Continúa leyendo «Musk baraja una fusión de SpaceX con xAI o Tesla mientras se acerca la salida a bolsa»

Apple compra Q.ai por unos 2.000 millones: la pieza que podría encajar en su plan de inteligencia artificial y wearables

Apple ha confirmado la compra de la startup israelí Q.ai, una operación valorada en torno a los 2.000 millones de dólares según fuentes citadas por Financial Times. Si esa cifra se sostiene, se convertiría en la segunda mayor adquisición de la historia de la compañía, solo por detrás de Beats en 2014.

El tamaño del cheque importa menos por el número en sí que por lo que sugiere: Apple no suele hacer apuestas tan voluminosas salvo que vea un “atajo” claro para acelerar una tecnología estratégica. En este caso, el contexto es evidente. La carrera de la IA se ha convertido en una carrera de producto, de plataforma y de talento, y Apple lleva meses recibiendo críticas por moverse con más cautela que rivales como Google, Meta u OpenAI, especialmente en asistentes y herramientas generativas. Continúa leyendo «Apple compra Q.ai por unos 2.000 millones: la pieza que podría encajar en su plan de inteligencia artificial y wearables»

Dentro del agente de datos interno de OpenAI: cuando preguntar en lenguaje natural reemplaza días de SQL

En muchas empresas, la conversación sobre IA suele centrarse en modelos cada vez más potentes. OpenAI, en cambio, ha puesto el foco en un cuello de botella bastante terrenal: el tiempo que se pierde buscando datos, entendiendo tablas parecidas y evitando errores silenciosos en consultas. En una entrada publicada el 29 de enero de 2026 por Bonnie Xu, Aravind Suresh y Emma Tang, la compañía cuenta cómo construyó un agente de datos interno para su propia plataforma, diseñado para que empleados de equipos muy distintos pasen “de pregunta a insight” en minutos, no en días, usando lenguaje natural como interfaz.

La escala explica la urgencia. Según la propia OpenAI, su plataforma de datos da servicio a más de 3.500 usuarios internos y almacena más de 600 petabytes repartidos en decenas de miles de conjuntos de datos. En un entorno así, localizar la tabla correcta puede ser como entrar en un hipermercado gigante a por “leche” sin saber si la buscas en refrigerados, en productos sin lactosa, en bebidas vegetales o en una marca concreta que alguien renombró la semana pasada. Esa ambigüedad se vuelve cara cuando hay decisiones de producto, finanzas o investigación esperando una cifra. Continúa leyendo «Dentro del agente de datos interno de OpenAI: cuando preguntar en lenguaje natural reemplaza días de SQL»