A Samsung Electronics informou, recentemente, que os funcionários foram proibidos de usar serviços de Inteligente Artificial (IA), como o ChatGPT, após vazamentos de dados. A empresa considera os casos como “uso indevido da tecnologia”.
De acordo com um representante, a proibição se aplica a funcionários da divisão de celulares e eletrodomésticos.
Ao que tudo indica, a Samsung tenta encontrar maneiras de usar serviços generativos num “ambiente seguro, para que a eficiência e a conveniência do trabalho possam ser aprimoradas“.
“Até que essas medidas sejam preparadas, estamos proibindo temporariamente o uso de serviços de IA generativa para computadores de propriedade da empresa“, teria dito um memorando interno obtido pela AFP.
Além disso, o documento da empresa sul-coreana recomenda que os funcionários evitem o upload de informações do trabalho nessas plataformas, ainda mais se forem feitas fora das instalações da Samsung.
Desde novembro do ano passado, o interesse nos serviços inteligentes aumentou de forma considerável, ainda mais depois de que o assistente virtual recebeu apoio da Microsoft.
No entanto, a “sensação do momento” tem preocupado os críticos pela forma que o recurso coleta e processam os dados disponibilizados.
Além da Samsung, o grupo financeiro Goldman Sachs também proibiu ou restringiu o uso de plataformas semelhantes ao ChatGPT por seus funcionários.
ChatGPT é seguro?
Desde o lançamento em novembro, diversas discussões foram levantadas sobre a existência de riscos no uso do chatbot. Bem… Os usuários já apontaram problemas com respostas falsas e até desinformação.
No entanto, a OpenAI afirmou que também é a favor da regulação do recurso, pois pretende manter a integridade de seus usuários.
“Trabalhamos ativamente para reduzir os dados pessoais no treinamento de nossos sistemas de IA, como o ChatGPT, porque queremos que nossa IA aprenda sobre o mundo, não sobre indivíduos particulares”, disse ao The New York Times.
(Ei nerd)