Categoría

Categoría: Seguridad

Noticias y consejos sobre Seguridad en Internet. Qué apps usar, qué peligros hay en Internet, cómo usar las contraseñas y mucho más.

2.324 artículos
software

La IA dispara el riesgo en el software: por qué las vulnerabilidades en código abierto se han duplicado

El código abierto se ha vuelto tan omnipresente que hoy aparece en el 98% de las bases de código analizadas, según el informe 2026 Open Source Security and Risk Analysis (OSSRA) de Black Duck. Esto tiene una lectura práctica: aunque tu equipo escriba el “corazón” de una aplicación desde cero, una parte enorme de lo… <a href="https://wwwhatsnew.com/2026/03/01/la-ia-dispara-el-riesgo-en-el-software-por-que-las-vulnerabilidades-en-codigo-abierto-se-han-duplicado/">Continúa leyendo »</a>

GRIDTIDE y el “C2 en una hoja de cálculo”: así fue la disrupción de una campaña global de espionaje contra telecos y gobiernos

Entre el 18 y el 25 de febrero de 2026, Google Threat Intelligence Group (GTIG), Mandiant y varios socios ejecutaron una operación coordinada para frenar una campaña de ciberespionaje a escala global. El actor, identificado como UNC2814 y vinculado por los investigadores a un posible nexo con la República Popular China (PRC), llevaba años operando… <a href="https://wwwhatsnew.com/2026/02/27/gridtide-y-el-c2-en-una-hoja-de-calculo-asi-fue-la-disrupcion-de-una-campana-global-de-espionaje-contra-telecos-y-gobiernos/">Continúa leyendo »</a>

gridtide-distruption-fig2.max-2100x2100

Cuando una IA intenta “copiar” a otra: la alerta de Anthropic sobre ataques de destilación contra Claude

En un comunicado fechado el 23 de febrero de 2026, Anthropic afirma haber detectado campañas “a escala industrial” para extraer capacidades de Claude, su familia de modelos de IA, mediante una técnica conocida como destilación. La compañía atribuye esas campañas a tres laboratorios: DeepSeek, Moonshot AI (conocida por sus modelos Kimi) y MiniMax. Según sus… <a href="https://wwwhatsnew.com/2026/02/26/cuando-una-ia-intenta-copiar-a-otra-la-alerta-de-anthropic-sobre-ataques-de-destilacion-contra-claude/">Continúa leyendo »</a>

Ataques de destilación en IA (1)

El internet pide carnet: cómo la verificación de edad se está convirtiendo en un nuevo peaje digital

Durante años, la mayoría de webs y apps se conformaban con una pregunta casi simbólica: “¿Eres mayor de edad?”. Era como poner un cartel de “solo adultos” en la puerta de una tienda sin nadie que mirase. Esa etapa se está agotando. La verificación de edad se extiende por redes sociales, plataformas de vídeo, servicios… <a href="https://wwwhatsnew.com/2026/02/26/el-internet-pide-carnet-como-la-verificacion-de-edad-se-esta-convirtiendo-en-un-nuevo-peaje-digital/">Continúa leyendo »</a>

verificacion edad

El Pentágono cita al CEO de Anthropic por el pulso sobre los límites de la IA en sistemas clasificados

El Departamento de Defensa de Estados Unidos ha llamado a Washington al director ejecutivo de Anthropic, Dario Amodei, para una reunión en el Pentágono centrada en un asunto que suele quedar oculto tras la palabra “innovación”: quién decide, y con qué condiciones, cómo se usa la inteligencia artificial cuando entra en el territorio de lo… <a href="https://wwwhatsnew.com/2026/02/26/el-pentagono-cita-al-ceo-de-anthropic-por-el-pulso-sobre-los-limites-de-la-ia-en-sistemas-clasificados/">Continúa leyendo »</a>

militar

ChatGPT en un caso de asesinatos en Corea del Sur: lo que revela sobre la seguridad de la IA

La policía surcoreana sostiene que una mujer de 21 años, identificada por su apellido Kim, utilizó ChatGPT como apoyo para calibrar riesgos antes de presuntamente drogar a sus víctimas. La acusación se centra en dos muertes ocurridas tras encuentros en moteles de Seúl: en ambos episodios, Kim habría suministrado bebidas mezcladas con benzodiacepinas —fármacos sedantes… <a href="https://wwwhatsnew.com/2026/02/25/chatgpt-en-un-caso-de-asesinatos-en-corea-del-sur-lo-que-revela-sobre-la-seguridad-de-la-ia/">Continúa leyendo »</a>

seguridad

Claude Code Security: cuando la IA deja de “buscar patrones” y empieza a pensar como un investigador

Durante años, gran parte del análisis de vulnerabilidades ha funcionado como un perro rastreador: excelente siguiendo olores ya identificados, menos útil cuando el rastro es nuevo. Herramientas como CodeQL (y lo que se apoya en ella, incluido GitHub Advanced Security) son potentes detectando clases de fallos bien descritas: patrones de código, flujos de datos típicos,… <a href="https://wwwhatsnew.com/2026/02/25/claude-code-security-cuando-la-ia-deja-de-buscar-patrones-y-empieza-a-pensar-como-un-investigador/">Continúa leyendo »</a>

Cómo proteger tu IP

Treinta ciudades rompen con Flock Safety y el debate sobre la vigilancia con IA entra en una nueva fase

La idea suena tentadora si se cuenta deprisa: instalar cámaras inteligentes por todas partes, leer matrículas en tiempo real y convertir cada calle en una especie de “alarma vecinal” automatizada. Eso es, en esencia, lo que vende Flock Safety, una empresa de vigilancia con IA que ha crecido al calor de los presupuestos municipales de… <a href="https://wwwhatsnew.com/2026/02/24/treinta-ciudades-rompen-con-flock-safety-y-el-debate-sobre-la-vigilancia-con-ia-entra-en-una-nueva-fase/">Continúa leyendo »</a>

Ilustración surrealista de inteligencia artificial vigilando redes humanas en un entorno onírico y abstracto.

Huellas digitales gemelas en silicio: el método del MIT que permite autenticar chips sin servidores

Cada vez que un sensor médico, un wearable, una etiqueta industrial o un pequeño dispositivo del IoT se conecta a otro, aparece una pregunta incómoda: ¿cómo sé que el “otro” es quien dice ser? En sistemas grandes, esa duda suele resolverse con certificados, servidores y protocolos pesados. El inconveniente es que muchos equipos en el… <a href="https://wwwhatsnew.com/2026/02/22/huellas-digitales-gemelas-en-silicio-el-metodo-del-mit-que-permite-autenticar-chips-sin-servidores/">Continúa leyendo »</a>

Imagen minimalista de un chip neuromórfico en el centro, rodeado de líneas estilizadas que representan conexiones neuronales. El diseño es limpio y moderno, sobre un fondo claro.

El fallo de Microsoft 365 Copilot Chat que dejó asomar correos “confidenciales” y lo que enseña sobre la IA en la oficina

Microsoft ha reconocido un error en Microsoft 365 Copilot Chat, su asistente de trabajo basado en IA generativa, que provocó que algunos usuarios empresariales vieran cómo el sistema era capaz de acceder y resumir contenido de correos almacenados en Outlook dentro de Borradores y Elementos enviados, incluso cuando esos mensajes estaban marcados con etiqueta de… <a href="https://wwwhatsnew.com/2026/02/21/el-fallo-de-microsoft-365-copilot-chat-que-dejo-asomar-correos-confidenciales-y-lo-que-ensena-sobre-la-ia-en-la-oficina/">Continúa leyendo »</a>

redes Wi-Fi públicas sin seguridad exponen datos confidenciales