Apple prohíbe a sus empleados usar ChatGPT porque teme que información confidencial sea filtrada a través de OpenAI

Apple Chatgpt
Sin comentarios Facebook Twitter Flipboard E-mail
oscar-steve

Steve Saldaña

Editor Senior

Periodista de tecnología y ciencia. Escribo y analizo la industria de plataformas tech en México y soy fan de la ética tecnológica. También soy miembro de la Red Mexicana de Periodistas de Ciencia. Hago locución comercial, produzco podcast y soy presentador del podcast semanal ROM. LinkedIn

La fugas de información en tiempos de ChatGPT no son extrañas. Startups y compañías medianas aparte, empleados de la propia Samsung recurrieron a OpenAI y le alimentaron con información privada que desembocó en que la tecnológica prohibiera a sus empleados utilizar ChatGPT.

El siguiente caso de prohibiciones expresas a empleados proviene de Apple, según un documento que fue revisado por The Wall Street Journal. A decri del texto enviado a empleados, Apple está preocupada de que trabajadores revelen información confidencial, de manera que son llamados a no usar GPT ni tampoco Copiloto de GitHub.

Los temores no son del todo infundados. En marzo OpenAI tuvo que desconectar ChatGPT brevemente por haber revelado conversaciones de usuarios, lo que provocó que le fuera habilitado un modo para que el chatbot no guarde historial de las conversaciones.

La información generada en ese modo no será usada por OpenAI para entrenar al modelo de lenguaje, dijo la compañía.

Como muchas otras tecnológicas que se han visto precipitadamente envueltos en la ola de IA generativas, Apple también está desarrollando su propio modelo de lenguaje, según fuentes le dijeron a The Wall Street Journal. De momento no hay indicio sobre si se trata de un modelo para uso interno, como en el caso de la herramienta que Apple desarrolla para hacer código interno, o bien, si se trata de una con miras a ser lanzada abiertamente.

ChatGPT llegó a iOS en formato de app apenas el 18 de mayo.

Comentarios cerrados
Inicio