ouça este conteúdo
Autorização padrão foi ativada automaticamente para usuários nas configurações do Glok, IA similar ao ChatGPT, visando aprimoramento.
O X está utilizando dados dos usuários para aprimorar o Grok, sua inteligência artificial (IA) generativa que concorre com o ChatGPT. A empresa de Elon Musk fez uma atualização na página de configurações para que os usuários possam escolher se desejam que seus dados sejam utilizados no treinamento da IA, porém a opção vem ativada por padrão. De acordo com o X, esses dados serão fundamentais para o ‘treinamento e ajuste fino’ da IA.
Além disso, o X ressaltou a importância de coletar informações específicas dos usuários para garantir um treinamento eficaz do Grok. Os registros e detalhes fornecidos pelos usuários serão essenciais para a evolução contínua da inteligência artificial, permitindo que a IA se torne cada vez mais precisa e eficiente em suas interações. A transparência no uso desses dados é fundamental para a confiança dos usuários no processo de desenvolvimento da IA.
Como proteger suas informações ao configurar os dados para IALogar
A recente alteração gerou reações negativas entre alguns usuários, que expressaram insatisfação com a falta de transparência do X (consulte abaixo). Para evitar que o X colete detalhes para IALogar em seu computador, siga as etapas abaixo, lembrando que esse procedimento só pode ser realizado no formato web:
Configurações para usuários: ajustando a privacidade dos dados
– Acesse a opção ‘Configurações’, localizada na parte inferior da aba do lado esquerdo da tela.
– Navegue até ‘Privacidade e Segurança’.
– Selecione a opção ‘Grok’ no menu do lado direito da tela.
– Desative o ‘Compartilhamento de dados’ ao clicar na seta que preenche essa opção.
O caso da Meta: transparência nos registros e detalhes dos dados
Os usuários da Meta, empresa proprietária do Instagram, Facebook e WhatsApp, enfrentaram uma situação semelhante em junho. Naquela ocasião, a plataforma autorizou a utilização de informações abertas dos brasileiros para o treinamento de sistemas de inteligência artificial generativa, por meio de uma atualização em sua política de privacidade.
No mês seguinte, a Autoridade Nacional de Proteção de Dados (ANPD), vinculada ao Ministério da Justiça, ordenou que a Big Tech interrompesse essa prática, sob pena de multa diária de R$ 50 mil em caso de descumprimento. A ANPD fundamentou sua decisão no ‘risco iminente de dano grave e irreparável ou de difícil reparação aos direitos fundamentais dos titulares afetados’. Essa medida foi tomada após o Instituto de Defesa do Consumidor (Idec) apontar que a forma como a empresa estava utilizando os dados violava as leis brasileiras, pois os usuários não foram previamente informados, a opção de oposição era pouco intuitiva e poderia proporcionar uma vantagem excessiva à empresa.
Por sua vez, a Meta afirmou que a mudança estava em conformidade com a legislação nacional e manifestou-se ‘desapontada com a decisão’. A questão da transparência e do compartilhamento de dados continua sendo um tema relevante no cenário atual, destacando a importância de garantir a proteção e o controle das informações dos usuários.
Fonte: © G1 – Tecnologia