NoticiasVisión general del mercadoGoogle, uno de los mayores patrocinadores de AI, advierte a su propio personal sobre los chatbots

Google, uno de los mayores patrocinadores de AI, advierte a su propio personal sobre los chatbots

SAN FRANCISCO (Reuters) - Alphabet (NASDAQ:GOOGL) Inc está advirtiendo a los empleados sobre cómo usan los chatbots, incluido su propio Bard, al mismo tiempo que comercializa el programa en todo el mundo, dijeron a Reuters cuatro personas familiarizadas con el asunto.

La matriz de Google aconsejó a los empleados que no ingresen sus materiales confidenciales en los chatbots de IA, dijeron las personas y la compañía confirmó, citando una política de larga data sobre la protección de la información.

Los chatbots, entre ellos Bard y ChatGPT, son programas con apariencia humana que utilizan la llamada inteligencia artificial generativa para mantener conversaciones con los usuarios y responder a innumerables indicaciones. Los revisores humanos pueden leer los chats, y los investigadores descubrieron que una IA similar podría reproducir los datos que absorbió durante el entrenamiento, creando un riesgo de fuga.

Alphabet también alertó a sus ingenieros para evitar el uso directo del código de computadora que pueden generar los chatbots, dijeron algunas personas.

Cuando se le pidió un comentario, la compañía dijo que Bard puede hacer sugerencias de código no deseadas, pero que, sin embargo, ayuda a los programadores. Google también dijo que su objetivo era ser transparente sobre las limitaciones de su tecnología.

Las preocupaciones muestran cómo Google desea evitar daños comerciales por el software que lanzó en competencia con ChatGPT. En la carrera de Google contra los patrocinadores de ChatGPT, OpenAI y Microsoft Corp (NASDAQ:MSFT), están en juego miles de millones de dólares de inversión y publicidad e ingresos en la nube aún no revelados de los nuevos programas de IA.

La precaución de Google también refleja lo que se está convirtiendo en un estándar de seguridad para las corporaciones, es decir, advertir al personal sobre el uso de programas de chat disponibles públicamente.

Un número creciente de empresas en todo el mundo ha establecido barreras en los chatbots de IA, entre ellas Samsung (KS:005930), Amazon.com (NASDAQ:AMZN) y Deutsche Bank (ETR:DBKGn), dijeron las empresas a Reuters. Apple (NASDAQ:AAPL), que no devolvió las solicitudes de comentarios, también lo ha hecho.

Unos 43% de profesionales estaban usando ChatGPT u otras herramientas de inteligencia artificial a partir de enero, a menudo sin decirle a sus jefes, según una encuesta de casi 12,000 encuestados, incluidas las principales empresas con sede en EE. UU., realizada por el sitio de redes Fishbowl.

En febrero, Google le dijo al personal que estaba probando Bard antes de su lanzamiento que no le diera información interna, informó Insider. Ahora Google está implementando Bard en más de 180 países y en 40 idiomas como un trampolín para la creatividad, y sus advertencias se extienden a sus sugerencias de código.

Google dijo a Reuters que ha tenido conversaciones detalladas con la Comisión de Protección de Datos de Irlanda y está respondiendo a las preguntas de los reguladores, luego de que Politico informara el martes que la compañía estaba posponiendo el lanzamiento de Bard en la UE esta semana a la espera de más información sobre el impacto del chatbot en la privacidad.

PREOCUPACIONES SOBRE LA INFORMACIÓN SENSIBLE

Dicha tecnología puede redactar correos electrónicos, documentos e incluso el propio software, lo que promete acelerar enormemente las tareas. Sin embargo, este contenido puede incluir información errónea, datos confidenciales o incluso pasajes protegidos por derechos de autor de una novela de "Harry Potter".

Un aviso de privacidad de Google actualizado el 1 de junio también establece: "No incluya información confidencial o delicada en sus conversaciones de Bard".

Algunas empresas han desarrollado software para hacer frente a estas preocupaciones. Por ejemplo, Cloudflare (NYSE:NET), que defiende los sitios web contra los ataques cibernéticos y ofrece otros servicios en la nube, está comercializando una capacidad para que las empresas etiquete y restrinja el flujo externo de algunos datos.

Google y Microsoft también están ofreciendo herramientas conversacionales a clientes comerciales que tendrán un precio más alto pero que se abstendrán de absorber datos en modelos públicos de IA. La configuración predeterminada en Bard y ChatGPT es guardar el historial de conversaciones de los usuarios, que los usuarios pueden optar por eliminar.

"Tiene sentido" que las empresas no quieran que su personal use chatbots públicos para trabajar, dijo Yusuf Mehdi, director de marketing de consumo de Microsoft.

“Las empresas están adoptando un punto de vista debidamente conservador”, dijo Mehdi, explicando cómo se compara el chatbot Bing gratuito de Microsoft con su software empresarial. “Allí, nuestras políticas son mucho más estrictas”.

Microsoft se negó a comentar si tiene una prohibición general para que el personal ingrese información confidencial en los programas públicos de inteligencia artificial, incluido el suyo propio, aunque un ejecutivo diferente dijo a Reuters que personalmente restringió su uso.

Matthew Prince, director ejecutivo de Cloudflare, dijo que escribir asuntos confidenciales en los chatbots era como "liberar a un grupo de estudiantes de doctorado en todos sus registros privados".

ARTÍCULOS RELACIONADOS
video
jugar-redondear-llenar

Más popular