Políticas da empresa foram atualizadas. Agora, os treinamentos de IA contarão com dados públicos dos usuários. Entenda o que isso quer dizer.
No setor das inteligências artificiais (IA), as empresas costumam usar dados públicos de milhões de usuários para treinar suas IAs generativas. É o caso, por exemplo, do ChatGPT, que recebe treinamentos constantes a partir dessas informações. Você sabia disso? Pois é! Tudo indica que elas não vão parar por aqui.
Agora, o Google está seguindo essa tendência, ao incluir mudanças na política de privacidade da companhia. A atualização afirma que informações pessoais vão passar a ser usadas para treinar os modelos de IA, não apenas modelos de linguagem. Confira ao longo do texto o que deve mudar na prática.
Dados públicos dos usuários vão ser empregados em treinamentos de IA
Com os ajustes na política de privacidade, a norma começa a englobar treinamentos de outras soluções apresentadas recentemente pela companhia. Anteriormente, aplicativos como o tradutor era um dos exemplos citados que usam informações públicas dos internautas para essa finalidade.
Agora, a política menciona que o Bard e o Cloud AI também vão contar com isso. O texto deixa bem claro que o Bard, o chatbot baseado em IA da Google, além de outros produtos com essa tecnologia e que ainda vão ser lançados, receberão esse tipo de treinamento. A mensagem da empresa ressalta que as informações vão ser usadas para melhorar os serviços e beneficiar o público com o desenvolvimento de novos produtos.
Essa medida se dá em meio a um cenário no qual muito se discute sobre a regulamentação dessa ferramenta. A pauta ressalta que essa coleta de dados não é feita de modo transparente e, com isso, as autoridades de diversos países passam a discutir sobre o processo: afinal, ele é legal ou não?
No mês passado, a OpenAI, que realiza uma série de treinamentos para aprimorar o seu chatbot, foi alvo de uma ação coletiva na Califórnia. Ela alegava que a companhia coletou dados pessoais em grande volume, sem a autorização dos usuários ou aviso prévio.
Na Itália, os reguladores foram ainda mais rigorosos e decidiram banir o recurso no país, sob a justificativa de que a OpenAI não tinha um motivo legal para extrair as informações dos usuários; contudo, a ferramenta foi liberada algum tempo depois, pois a empresa mostrou detalhes de como esse processo foi realizado.