O Slack tem desviado dados do usuário para treinar modelos de IA sem pedir permissão

Para as organizações, o espectro de dados internos usados ​​para treinar modelos de IA levanta sérias preocupações em relação à segurança e conformidade. Mas o Slack aparentemente ainda está sugando mensagens, arquivos e dados para treinar seus recursos de IA nos bastidores. Pior ainda, os usuários optaram automaticamente por esse acordo sem conhecimento ou consentimento.

A revelação, que explodiu online esta semana depois que um usuário a divulgou no X/Twitter, deixou muitas pessoas irritadas porque o Slack não deixou isso mais claro desde o início. Corey Quinn, um executivo do Duckbill Group, causou confusão com uma postagem irritada perguntando “Sinto muito, Slack, você está fazendo o que com DMs, mensagens, arquivos de usuários, etc?”

Quinn estava se referindo a um trecho dos Princípios de Privacidade do Slack que diz: “Para desenvolver modelos de IA/ML, nossos sistemas analisam Dados do Cliente (por exemplo, mensagens, conteúdo e arquivos) enviados ao Slack, bem como Outras Informações (incluindo informações de uso) conforme definido em nossa Política de Privacidade e em seu contrato de cliente.”

O Slack respondeu rapidamente na mesma postagem, confirmando que está realmente usando o conteúdo do cliente para treinar certas ferramentas de IA no aplicativo. Mas traçou um limite – que os dados não vão para a sua oferta premium de IA, que eles consideram completamente isolada das informações do usuário.

Ainda assim, a maioria foi pega de surpresa pelos principais recursos de IA do Slack, que dependem de acesso aberto às conversas e arquivos privados de todos. Vários usuários argumentaram que deveria ter havido um alerta proeminente, permitindo que as pessoas desistissem antes do início de qualquer coleta de dados.

O próprio processo de cancelamento também é um incômodo. Os indivíduos não podem optar por sair por conta própria; eles precisam que um administrador de toda a organização solicite isso enviando um e-mail com um assunto bem específico, que você pode encontrar na postagem acima.

Alguns pesos pesados ​​contribuíram, acumulando críticas. Meredith Whittaker, presidente do aplicativo de mensagens privado Signal, lançou alguma sombra, dizendo “em primeiro lugar, não coletamos seus dados, então não temos nada para ‘minerar’ para ‘IA'”. 

A reação destaca as tensões crescentes em torno da IA ​​e da privacidade, à medida que as empresas correm para se superar no desenvolvimento de software mais inteligente.

As inconsistências nas políticas do Slack também não estão ajudando. Uma seção diz que a empresa não pode acessar o conteúdo subjacente ao desenvolver modelos de IA. Outra página de marketing das ferramentas premium de IA generativa do Slack diz: “Trabalhe sem preocupações. Seus dados são seus dados. Não os usamos para treinar a IA do Slack. Tudo funciona na infraestrutura segura do Slack, atendendo aos mesmos padrões de conformidade do próprio Slack.”

No entanto, a admissão da mineração de dados dos utilizadores dentro dos “princípios de privacidade” parece contradizer estas afirmações.

No Threads, um engenheiro do Slack tentou esclarecer as coisas, dizendo que as regras de privacidade foram “originalmente escritas sobre o trabalho de pesquisa/recomendação que temos feito anos antes do Slack AI”, admitindo que precisam de uma atualização.

Ainda assim, o maior problema é obviamente a abordagem opt-in-by-default. Embora seja comum na tecnologia, contraria os princípios de privacidade de dados de dar às pessoas uma escolha explícita sobre como suas informações serão usadas.

Fonte: techspot.com

Deixe um comentário

Crie um site ou blog no WordPress.com

Acima ↑