Ni Google confía en Bard lo suficiente para que trabajadores lo utilicen: "puede haber filtraciones", advierte Alphabet

Google Ia
Sin comentarios Facebook Twitter Flipboard E-mail

El uso de la Inteligencia Artificial en las empresas cada vez es más común, habiendo casos donde los jefes contratan las versiones de pago, pero también otros, como el de Samsung, que prohíben a sus empleados utilizar los chatbots para evitar filtraciones de información.

Otra compañía que se ha sumado a la prohibición es Google, que de acuerdo con Reuters, está advirtiendo a sus empleados de que no deben utilizar los chatbots, incluida la opción de la compañía, Bard, de acuerdo con varias personas familiarizadas con el asunto.

El medio detalla que Alphabet ha pedido a sus trabajadores no ingresar información confidencial en ninguno de los chatbots para evitar filtraciones, pues en caso de hacerlo, revisores humanos pueden leer los chats, además de que utilizando una IA similar se pueden reproducir los datos que se absorbieron durante el entrenamiento, creando así un potencial riesgo de fuga.

Otro caso donde la compañía advirtió a sus empleados, es en evitar usar directamente el código de computadora que pueden generar los chatbots, ya que Bard puede hacer sugerencias no deseadas a pesar de que puede ayudar a los programadores.

Las empresas y sus datos confidenciales

Con este movimiento Google se suma a las empresas que han advertido a sus empleados sobre el uso de la Inteligencia Artificial, como Amazon, que pidió que no se compartiera ninguna información confidencial con ChatGPT, o la propia Apple, que prohibió a los trabajadores utilizar tanto el chatbot de OpenAI como GitHub Copilot.

En el caso de Bard, Google enfrenta una serie de retrasos para implementarlo en la Unión Europea, pues la Comisión Irlandesa de Protección de Datos señala que la IA no cumple con la ley de Protección de Datos personales, en un caso similar al ocurrido con ChatGPT en Italia.

Comentarios cerrados
Inicio