La gigante tecnológica Apple ha tomado medidas para restringir a sus empleados el uso de herramientas de IA generativa como ChatGPT de OpenAI. Esta decisión surge por el temor de que información confidencial ingresada en estos sistemas pueda ser filtrada o recopilada.
Apple, reconocida mundialmente por su innovación en tecnología, ha tomado una postura cautelosa al restringir el acceso de sus empleados a herramientas de inteligencia artificial (IA) generativa como ChatGPT, desarrollado por OpenAI. La preocupación principal radica en el riesgo de filtración de información confidencial que podría ingresar a estos sistemas y ser capturada o almacenada sin autorización.
Preocupaciones sobre la seguridad de los datos
De acuerdo con un informe del Wall Street Journal, Apple ha advertido a sus empleados sobre los riesgos asociados con el uso de herramientas como ChatGPT de OpenAI y el asistente de programación de IA de GitHub llamado Copilot. Mark Gurman, periodista de Bloomberg, señaló en un tuit que ChatGPT ha estado en la lista de software restringido por Apple «durante meses».
La preocupación de Apple está fundamentada en la política predeterminada de OpenAI de almacenar todas las interacciones entre los usuarios y ChatGPT. Estas conversaciones son recopiladas para entrenar los sistemas de IA de OpenAI y pueden ser revisadas por moderadores para garantizar el cumplimiento de los términos y servicios de la empresa. Aunque OpenAI introdujo una función en abril que permite a los usuarios desactivar el historial de chat, las conversaciones aún se conservan durante 30 días, con la opción de revisarlas por «abuso» antes de eliminarlas de forma permanente.
Riesgo potencial para la confidencialidad
Apple tiene razones justificadas para preocuparse, especialmente en lo que respecta a proyectos confidenciales. ChatGPT se ha utilizado ampliamente para mejorar el código y generar ideas, lo que lo convierte en una herramienta útil para los empleados de Apple. Sin embargo, existe el temor de que los empleados puedan ingresar información sobre proyectos confidenciales en el sistema, lo que podría exponerla a los moderadores de OpenAI. Aunque no hay evidencia de que ChatGPT sea vulnerable a ataques que extraigan datos de entrenamiento, algunos estudios han demostrado que es posible obtener información de algunos modelos de lenguaje mediante su interfaz de chat.
Prohibiciones similares en otras empresas
Apple no es la única empresa que ha implementado esta prohibición. Otras compañías como JP Morgan, Verizon y Amazon también han restringido el uso de herramientas de IA generativa. La preocupación por la privacidad y la seguridad de los datos ha llevado a estas empresas a tomar medidas preventivas para evitar cualquier riesgo potencial.
Aplicación de ChatGPT en iOS y perspectivas futuras
Es interesante destacar que OpenAI recientemente lanzó una aplicación de ChatGPT para iOS, que es gratuita y admite entrada de voz. Actualmente disponible en Estados Unidos, OpenAI planea expandir la aplicación a otros países y lanzar una versión para Android en el futuro. A pesar de la prohibición de Apple, esta iniciativa muestra el creciente interés y la adopción de las herramientas de IA generativa en diferentes sectores y su potencial para mejorar la interacción y la productividad.