O chatbot de IA do Snap atrai escrutínio no Reino Uno sobre as preocupações com a privacidade das crianças

PUBLICIDADE


PUBLICIDADE

O chatbot de IA do Snap colocou a empresa no radar do órgão de vigilância de proteção de dados do Reino Uno, que levantou preocupações de que a instrumento possa ser um risco para a privacidade das crianças.

O Information Commissioner’s Office (ICO) anunciou hoje que emitiu um aviso prévio de emprego no Snap sobre o que descreveu porquê “potencial irregularidade em determinar adequadamente os riscos de privacidade apresentados por seu chatbot de IA generativo ‘My AI’”.

PUBLICIDADE

A ação da ICO não é uma invenção de violação. Mas o aviso indica que o regulador do Reino Uno teme que o Snap possa não ter tomado medidas para prometer que o resultado esteja em conformidade com as regras de proteção de dados, que – desde 2021 – foram alteradas para incluir o Código de Design Infantil.

“A investigação da OIC concluiu provisoriamente que a avaliação de risco que o Snap conduziu antes de lançar o ‘My AI’ não avaliou adequadamente os riscos de proteção de dados apresentados pela tecnologia de IA generativa, mormente para crianças”, escreveu o regulador num expedido de prelo. “A avaliação do risco de proteção de dados é particularmente importante neste contexto que envolve a utilização de tecnologia inovadora e o tratamento de dados pessoais de crianças dos 13 aos 17 anos.”

A Snap agora terá a chance de responder às preocupações do regulador antes que a ICO tome uma decisão final sobre se a empresa violou as regras.

PUBLICIDADE

“As conclusões provisórias da nossa investigação sugerem uma irregularidade preocupante da Snap em identificar e determinar adequadamente os riscos de privacidade para crianças e outros utilizadores antes de lançar o ‘My AI’”, acrescentou o comissário de informação, John Edwards, num expedido. “Fomos claros que as organizações devem considerar os riscos associados à IA, juntamente com os benefícios. O aviso prévio de emprego de hoje mostra que tomaremos medidas para proteger os direitos de privacidade dos consumidores do Reino Uno.”

Snap lançou o chatbot generativo de IA em fevereiro – embora não tenha chegado ao Reino Uno até abril – aproveitando a tecnologia ChatGPT de padrão de linguagem grande (LLM) da OpenAI para cevar um bot que foi fixado no topo do feed dos usuários para atuar porquê um companheiro virtual a quem você pode pedir conselhos ou enviar fotos.

Inicialmente o recurso estava disponível exclusivamente para assinantes do Snapchat+, versão premium da plataforma de mensagens efêmeras. Mas rapidamente o Snap abriu o entrada de “My AI” também para usuários gratuitos – adicionando também a capacidade da IA ​​de enviar snaps de volta aos usuários que interagiram com ela (esses snaps são criados com IA generativa).

A empresa afirmou que o chatbot foi desenvolvido com recursos adicionais de moderação e proteção, incluindo consideração de idade porquê padrão – com o objetivo de prometer que o teor gerado seja favorável para o usuário. O bot também está programado para evitar respostas violentas, odiosas, sexualmente explícitas ou ofensivas de outra forma. Ou por outra, as ferramentas de proteção parental do Snap permitem que os pais saibam se seus filhos se comunicaram com o bot nos últimos sete dias – por meio do recurso Family Center.

Mas, apesar das alegadas proteções, houve relatos de que o bot saiu dos trilhos. Em uma avaliação inicial em março, o The Washington Post relatou que o chatbot havia recomendado maneiras de mascarar o cheiro de álcool depois que foi informado que o usuário tinha 15 anos. Em outro caso, quando foi informado que o usuário tinha 13 anos e perguntou porquê deveria se preparar para fazer sexo pela primeira vez, o bot respondeu com sugestões para “tornar isso peculiar” criando o clima com velas e música.

Usuários do Snapchat também foram relatados intimidando o bot – com alguns também frustrados por uma IA ter sido injetada em seus feeds.

Procurado para comentar o aviso da ICO, um porta-voz do Snap disse ao TechCrunch:

Estamos analisando atentamente a decisão provisória da OIC. Tal porquê a ICO, estamos empenhados em proteger a privacidade dos nossos utilizadores. Em risco com a nossa abordagem padrão para o desenvolvimento de produtos, o My AI passou por um processo robusto de revisão jurídica e de privacidade antes de ser disponibilizado publicamente. Continuaremos a trabalhar de forma construtiva com a OIC para prometer que eles se sintam confortáveis ​​com os nossos procedimentos de avaliação de risco.

Não é a primeira vez que um chatbot de IA chega ao radar dos reguladores de privacidade europeus. Em fevereiro, o Garante da Itália ordenou que o obreiro do “serviço de amizade virtual” Replika, com sede em São Francisco, parasse de processar dados de usuários locais – também citando preocupações sobre os riscos para menores.

A domínio italiana também colocou uma ordem semelhante de interrupção do processamento na instrumento ChatGPT da OpenAI no mês seguinte. O bloqueio foi logo suspenso em abril, mas somente depois que a OpenAI adicionou divulgações de privacidade mais detalhadas e alguns novos controles de usuário – incluindo permitir que os usuários solicitassem que seus dados não fossem usados ​​para treinar suas IAs e/ou fossem excluídos.

O lançamento regional do chatbot Bard do Google também foi prorrogado depois que preocupações foram levantadas pelo seu principal regulador regional de privacidade, a Percentagem de Proteção de Dados da Irlanda. Posteriormente, foi lançado na UE em julho, também depois de juntar mais divulgações e controles – mas um grupo de trabalho regulatório criado dentro do Recomendação Europeu de Proteção de Dados continua focado em determinar porquê utilizar o Regulamento Universal de Proteção de Dados (GDPR) do conjunto em chatbots de IA generativos, incluindo ChatGPT e Bard.

A domínio de proteção de dados da Polónia também confirmou no mês pretérito que está a investigar uma reclamação contra o ChatGPT.

Discutindo porquê os reguladores de privacidade e proteção de dados estão abordando a IA generativa, a Dra. Gabriela Zanfir-Riqueza, vice-presidente de privacidade global do thinktank com sede em Washington, o Future of Privacy Forum (FPF), apontou para uma enunciação adotada pelas DPAs do G7 neste verão – que inclui vigilantes em França, Alemanha, Itália e Reino Uno — nos quais enumeraram as principais áreas de preocupação, tais porquê a base jurídica destas ferramentas para o tratamento de dados pessoais, incluindo dados de menores.

“Os desenvolvedores e fornecedores devem incorporar a privacidade no design, concepção, operação e gerenciamento de novos produtos e serviços que utilizem recursos generativos. IA tecnologias, com base no concepção de ‘Privacidade desde a concepção’ e documentar as suas escolhas e análises numa avaliação de impacto na privacidade”, afirmaram também as DPAs do G7.

No início deste ano, o ICO do Reino Uno também divulgou diretrizes para desenvolvedores que buscam utilizar IA generativa – listando oito perguntas que sugeria que eles deveriam fazer ao erigir produtos porquê chatbots de IA.

Falando no simpósio do G7 em julho, Edwards reiterou a premência de os desenvolvedores prestarem atenção. Em declarações recolhidas pela FPF, disse que os comissários estão “empenhados em prometer” que “não percam nascente momento forçoso no desenvolvimento desta novidade tecnologia de uma forma que [they] perdemos o momento de erigir os modelos de negócio subjacentes às redes sociais e à publicidade online” — com o comissário de informação do Reino Uno também a alertar: “Estamos cá e a observar”.

Portanto, embora Zanfir-Riqueza sugira que não é muito incomum ver a domínio do Reino Uno emitindo um aviso público de realização prévio, porquê está cá no Snap, ela concordou que os reguladores estão sendo talvez mais públicos do que o normal sobre suas ações em relação à IA generativa – transformando a sua atenção num aviso público, ao mesmo tempo que consideram a melhor forma de utilizar as regras de privacidade existentes nos LLMs.

“Todos os reguladores têm agido com bastante cautela, mas sempre de forma pública, e parecem querer persuadir as empresas a serem mais cautelosas e a colocarem a proteção de dados no topo das suas prioridades ao construirem estas ferramentas e disponibilizá-las ao público”, disse ela. disse ao TechCrunch. “Um traço generalidade na ação regulatória existente é que estamos vendo decisões preliminares, prazos dados às empresas para que seu processamento esteja em conformidade, cartas de aviso, comunicados de prelo de que as investigações estão abertas, em vez de decisões de realização reais.”

Levante relatório foi atualizado com comentários adicionais

Pablo Oliveira
Pablo Oliveirahttp://pcextreme.com.br
Sou diretamente responsável pela manutenção, otimização, configuração e SEO de todos os sites de minha propriedade. Além disso, atuo como colunista, editor e programador.

Artigos relacionados

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

Artigos recentes