O presidente Biden emite uma ordem executiva para estabelecer padrões de segurança e proteção de IA

PUBLICIDADE


PUBLICIDADE

O presidente dos EUA, Joe Biden, emitiu uma ordem executiva (EO) que procura estabelecer “novos padrões” para a segurança e proteção da IA, incluindo requisitos para que empresas que desenvolvam modelos básicos de IA notifiquem o governo federalista e compartilhem os resultados de todos os testes de segurança antes de serem implantados. para o público.

O rápido movimento de IA generativa, impulsionado por empresas porquê ChatGPT e modelos básicos de IA desenvolvidos pela OpenAI, gerou um debate global em torno da urgência de barreiras de proteção para combater as armadilhas potenciais de ceder muito controle aos algoritmos. Em maio, os líderes do G7 identificaram temas-chave que precisam de ser abordados porquê secção do chamado Processo de IA de Hiroshima, com os sete países constituintes a chegarem hoje a um contrato sobre princípios orientadores e um código de conduta “voluntário” para os desenvolvedores de IA seguirem. .

PUBLICIDADE

Na semana passada, a Organização das Nações Unidas (ONU) anunciou um novo juízo para explorar a governação da IA, enquanto o Reino Unificado acolhe esta semana a sua cimeira global sobre governação da IA ​​em Bletchley Park, com a vice-presidente dos EUA, Kamala Harris, a falar no evento.

A gestão Biden-Harris, por sua vez, também tem se concentrado na segurança da IA ​​em vez de qualquer coisa juridicamente vinculativa, garantindo “compromissos voluntários” dos principais desenvolvedores de IA, incluindo OpenAI, Google, Microsoft, Meta e Amazon – isso sempre foi pretende ser um prelúdio para uma ordem executiva, que é o que está sendo anunciado hoje.

“IA segura, protegida e confiável”

Especificamente, a ordem estabelece que os desenvolvedores dos “sistemas de IA mais poderosos” devem compartilhar os resultados dos seus testes de segurança e dados relacionados com o governo dos EUA.

PUBLICIDADE

“À medida que as capacidades da IA ​​crescem, também aumentam as suas implicações para a segurança e proteção dos americanos”, observa o despacho, acrescentando que se destina a “proteger os americanos dos riscos potenciais dos sistemas de IA”.

Alinhando os novos padrões de segurança e proteção da IA ​​com a Lei de Produção de Resguardo (1950), a ordem visa especificamente qualquer protótipo de base que possa simbolizar um risco para a segurança pátrio, a segurança económica ou a saúde pública – que, embora um tanto desimpedido à tradução, deve abranger praticamente qualquer protótipo de base que se concretize.

“Essas medidas garantirão que os sistemas de IA sejam seguros e confiáveis ​​antes que as empresas os tornem públicos”, acrescenta o pedido.

Em outros lugares, o pedido também descreve planos para desenvolver várias novas ferramentas e sistemas para prometer que a IA seja segura e confiável, com o Instituto Pátrio de Padrões e Tecnologia (NIST) encarregado de desenvolver novos padrões “para testes extensivos da equipe vermelha” antes do lançamento . Esses testes serão aplicados de forma generalizada, com os Departamentos de Virilidade e Segurança Interna a abordarem os riscos envolvidos com a IA e infraestruturas críticas, por exemplo.

A ordem também serve para sustentar uma série de novas diretivas e normas, incluindo — mas não se limitando a — proteção contra os riscos do uso de IA para projetar materiais biológicos perigosos; proteção contra fraude e miragem alimentados por IA; e estabelecer um programa de segurança cibernética para edificar ferramentas de IA para abordar vulnerabilidades em software crítico.

Dentes

É importante notar que a ordem aborda áreas porquê justiça e direitos civis, apontando porquê a IA pode exacerbar a discriminação e o preconceito nos cuidados de saúde, justiça e habitação, muito porquê os perigos que a IA representa em relação a coisas porquê vigilância no sítio de trabalho e trabalho. deslocamento. Mas alguns podem interpretar a ordem porquê carente de força real, já que grande secção dela parece estar centrada em recomendações e directrizes – por exemplo, diz que quer prometer a justiça no sistema de justiça criminal através do “desenvolvimento de Melhores Práticas sobre o uso de IA em sentenças, liberdade condicional e liberdade condicional, libertação e detenção antes do julgamento, avaliações de risco, vigilância, previsão de crimes e policiamento preditivo, e estudo judiciario.”

E embora a ordem executiva vá de alguma forma no sentido de codificar porquê Os desenvolvedores de IA devem gerar segurança e proteção em seus sistemas; não está evidente até que ponto isso será aplicável sem novas alterações legislativas. Por exemplo, o pedido discute preocupações em torno da privacidade dos dados – enfim, a IA torna infinitamente mais fácil extrair e explorar dados privados de indivíduos em graduação, um pouco que os desenvolvedores podem ser incentivados a fazer porquê secção de seus processos de treinamento de modelos. No entanto, a ordem executiva somente apela ao Congresso para que aprove “legislação bipartidária de privacidade de dados” para proteger os dados dos americanos, incluindo a solicitação de mais pedestal federalista para desenvolver técnicas de desenvolvimento de IA que preservem a privacidade.

Com a Europa prestes a sancionar os primeiros regulamentos abrangentes sobre IA, é evidente que o resto do mundo também se debate com formas de moderar o que deverá gerar uma das maiores perturbações sociais desde a revolução industrial. Ainda não se sabe até que ponto a ordem executiva do presidente Biden prova ter impacto sobre empresas porquê OpenAI, Google, Microsoft e Meta.

Pablo Oliveira
Pablo Oliveirahttp://pcextreme.com.br
Sou diretamente responsável pela manutenção, otimização, configuração e SEO de todos os sites de minha propriedade. Além disso, atuo como colunista, editor e programador.

Artigos relacionados

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

Artigos recentes