Con el auge de la inteligencia artificial, vemos que un creciente número de empresas han comenzado a prohibir el uso de ChatGPT, un modelo de lenguaje desarrollado por OpenAI. Las razones son diversas y apuntan a cuestiones de seguridad, privacidad y eficiencia laboral.
Peligro latente: Fugas de datos
La naturaleza de ChatGPT requiere una ingente cantidad de datos para funcionar eficazmente. Este modelo de lenguaje fue entrenado con grandes volúmenes de información extraída de internet y sigue necesitando de estos para mejorar. Aunque el propósito sea el aprendizaje, cualquier dato confidencial que se le suministre puede ser examinado por sus entrenadores, quienes podrían utilizar dicha información para mejorar sus sistemas. Las empresas son conscientes de este riesgo y prefieren prevenir posibles fugas de datos que puedan perjudicar su reputación o poner en peligro a sus clientes.
Riesgos de ciberseguridad
Otra preocupación se centra en la posibilidad de que ChatGPT sea un blanco atractivo para los ciberatacantes. El hecho de que un chatbot como ChatGPT pueda generar respuestas similares a las humanas lo convierte en una herramienta potencialmente útil para los atacantes de phishing, que podrían hacerse pasar por entidades legítimas y engañar a los empleados de la empresa para que compartan información sensible.
La alternativa: Chatbots personalizados
Frente a las preocupaciones por la seguridad, muchas compañías optan por desarrollar sus propios chatbots. Esto les permite tener un control total sobre la gestión de datos y mitiga los riesgos de seguridad. Un ejemplo de esto es el Gen.ai de Commonwealth Bank of Australia, un chatbot basado en inteligencia artificial que utiliza información propia del banco para responder a las consultas.
¿Regulación? La gran ausente
La falta de una regulación clara y precisa sobre el uso de modelos de lenguaje como ChatGPT también puede ser un obstáculo. Las empresas pueden enfrentarse a graves consecuencias legales si utilizan este tipo de inteligencia artificial en sus operaciones sin una guía regulatoria adecuada.
Los empleados y el uso irresponsable de la IA
Por último, la dependencia excesiva en ChatGPT por parte de los empleados puede inhibir la creatividad y el pensamiento crítico en el lugar de trabajo. El hecho de que ChatGPT pueda proporcionar información inexacta o engañosa podría conducir a errores críticos si los empleados no verifican la información generada por el chatbot.
La prohibición de ChatGPT en las empresas nos deja una reflexión sobre la responsabilidad y el manejo cuidadoso de la tecnología emergente. El avance de la inteligencia artificial es innegable, pero es imperativo reconocer y afrontar los desafíos que plantea en cuanto a seguridad, privacidad y regulación.