ChatGPT en un caso de asesinatos en Corea del Sur: lo que revela sobre la seguridad de la IA

La policía surcoreana sostiene que una mujer de 21 años, identificada por su apellido Kim, utilizó ChatGPT como apoyo para calibrar riesgos antes de presuntamente drogar a sus víctimas. La acusación se centra en dos muertes ocurridas tras encuentros en moteles de Seúl: en ambos episodios, Kim habría suministrado bebidas mezcladas con benzodiacepinas —fármacos sedantes que, según los investigadores, tenía prescritos por un trastorno de salud mental— y se habría marchado sola poco después. En el primer caso, la secuencia situada por la policía comienza el 28 de enero y termina con el hallazgo del cuerpo al día siguiente; el segundo se habría producido el 9 de febrero con un patrón similar.

Lo que convierte este caso en una noticia global no es solo la crudeza de los hechos, sino el rastro digital que, según las autoridades, ayudaría a sostener la intención de matar. De acuerdo con The Korea Herald y reportes recogidos por otros medios, los investigadores habrían encontrado consultas relacionadas con la combinación de somníferos y alcohol, con preguntas del tipo “¿podría ser mortal?” o “¿qué cantidad se considera peligrosa?”. Ese tipo de búsqueda no es una “receta” paso a paso, pero sí funcionaría como quien pregunta a un semáforo cuánto tarda en ponerse rojo: no conduce el coche por ti, pero puede influir en decisiones con consecuencias irreparables. Continúa leyendo «ChatGPT en un caso de asesinatos en Corea del Sur: lo que revela sobre la seguridad de la IA»