NotíciasVisão geral do mercadoGoogle, um dos maiores apoiadores da IA, alerta sua própria equipe sobre chatbots

Google, um dos maiores apoiadores da IA, alerta sua própria equipe sobre chatbots

SAN FRANCISCO (Reuters) – A Alphabet (NASDAQ:GOOGL) Inc está alertando os funcionários sobre como eles usam chatbots, incluindo seu próprio Bard, ao mesmo tempo em que comercializa o programa em todo o mundo, disseram quatro pessoas familiarizadas com o assunto à Reuters.

A controladora do Google aconselhou os funcionários a não inserir seus materiais confidenciais em chatbots de IA, disseram as pessoas e a empresa confirmou, citando uma política de longa data sobre proteção de informações.

Os chatbots, entre eles Bard e ChatGPT, são programas de som humano que usam a chamada inteligência artificial generativa para manter conversas com usuários e responder a uma miríade de solicitações. Os revisores humanos podem ler os chats, e os pesquisadores descobriram que uma IA semelhante pode reproduzir os dados que absorveu durante o treinamento, criando um risco de vazamento.

A Alphabet também alertou seus engenheiros para evitar o uso direto de código de computador que os chatbots podem gerar, disseram algumas das pessoas.

Solicitada a comentar, a empresa disse que Bard pode fazer sugestões indesejadas de código, mas ainda assim ajuda os programadores. O Google também disse que pretende ser transparente sobre as limitações de sua tecnologia.

As preocupações mostram como o Google deseja evitar danos aos negócios com o software lançado em concorrência com o ChatGPT. Em jogo na corrida do Google contra os patrocinadores do ChatGPT, OpenAI e Microsoft Corp (NASDAQ:MSFT), estão bilhões de dólares em investimentos e publicidade ainda não contada e receita em nuvem de novos programas de IA.

A cautela do Google também reflete o que está se tornando um padrão de segurança para as corporações, ou seja, alertar o pessoal sobre o uso de programas de bate-papo disponíveis publicamente.

Um número crescente de empresas em todo o mundo criou proteções para chatbots de IA, entre elas Samsung (KS:005930), Amazon.com (NASDAQ:AMZN) e Deutsche Bank (ETR:DBKGn), disseram as empresas à Reuters. A Apple (NASDAQ:AAPL), que não retornou os pedidos de comentários, também o fez.

Cerca de 43% de profissionais estavam usando o ChatGPT ou outras ferramentas de IA em janeiro, muitas vezes sem avisar seus chefes, de acordo com uma pesquisa com quase 12.000 entrevistados, incluindo as principais empresas dos EUA, feita pelo site de relacionamento Fishbowl.

Em fevereiro, o Google disse à equipe que testou o Bard antes de seu lançamento para não fornecer informações internas, informou o Insider. Agora, o Google está lançando o Bard em mais de 180 países e em 40 idiomas como um trampolim para a criatividade, e seus alertas se estendem às suas sugestões de código.

O Google disse à Reuters que teve conversas detalhadas com a Comissão de Proteção de Dados da Irlanda e está respondendo às perguntas dos reguladores, após uma reportagem do Politico na terça-feira de que a empresa estava adiando o lançamento da Bard na UE esta semana, aguardando mais informações sobre o impacto do chatbot na privacidade.

PREOCUPE-SE COM INFORMAÇÕES SENSÍVEIS

Essa tecnologia pode redigir e-mails, documentos e até o próprio software, prometendo acelerar bastante as tarefas. Incluído neste conteúdo, no entanto, pode haver desinformação, dados confidenciais ou até mesmo passagens protegidas por direitos autorais de um romance de “Harry Potter”.

Um aviso de privacidade do Google atualizado em 1º de junho também afirma: “Não inclua informações confidenciais ou sensíveis em suas conversas com o Bard”.

Algumas empresas desenvolveram software para lidar com essas preocupações. Por exemplo, a Cloudflare (NYSE:NET), que defende sites contra ataques cibernéticos e oferece outros serviços em nuvem, está comercializando um recurso para que as empresas marquem e restrinjam o fluxo externo de alguns dados.

O Google e a Microsoft também estão oferecendo ferramentas de conversação para clientes corporativos que terão um preço mais alto, mas se abstêm de absorver dados em modelos públicos de IA. A configuração padrão no Bard e no ChatGPT é salvar o histórico de conversas dos usuários, que os usuários podem optar por excluir.

“Faz sentido” que as empresas não queiram que seus funcionários usem chatbots públicos para o trabalho, disse Yusuf Mehdi, diretor de marketing de consumo da Microsoft.

“As empresas estão adotando uma posição devidamente conservadora”, disse Mehdi, explicando como o Bing chatbot gratuito da Microsoft se compara a seu software empresarial. “Lá, nossas políticas são muito mais rígidas.”

A Microsoft se recusou a comentar se tem uma proibição geral de funcionários inserirem informações confidenciais em programas públicos de IA, incluindo os seus próprios, embora um outro executivo tenha dito à Reuters que restringiu pessoalmente seu uso.

Matthew Prince, CEO da Cloudflare, disse que digitar assuntos confidenciais em chatbots era como “deixar um bando de estudantes de doutorado à solta em todos os seus registros particulares”.

ARTIGOS RELACIONADOS
vídeo
play-round-fill

Mais popular