Notícia.
Biden assina 1º decreto para regular a Inteligência Artificial nos EUA
O documento exige que os desenvolvedores realizem verificações de segurança, criem selos que identifiquem conteúdo gerado por IA em um relatório para mapear riscos potenciais para o mercado de trabalho.
O presidente dos EUA, Joe Biden, assinou a primeira ordem executiva (algo como um decreto) para regular a inteligência artificial (IA) no país. O documento estabelece padrões de segurança e “identifica ações abrangentes para proteger os americanos dos riscos potenciais dos sistemas de IA”. Numa cerimônia na Casa Branca, Biden disse: "A IA está à nossa volta e é preciso governar essa tecnologia."
Segundo a Associated Press, os Estados Unidos abrigam grandes desenvolvedores como Google, Meta e Microsoft, além de muitas startups como a OpenAI, dona do ChatGPT.
Confira abaixo os principais pontos da lei.
• Os desenvolvedores de sistemas de inteligência artificial devem compartilhar resultados de testes de segurança e outras informações confidenciais com o governo dos EUA.
• As empresas devem testar os seus sistemas de IA para garantir que são seguros. O Instituto Nacional de Padrões e Tecnologia (NIST) afirma que “estabelece padrões rigorosos para testes extensivos, para garantir a segurança antes do lançamento”.
• Para reduzir a fraude e o engano, o Departamento de Comércio dos EUA deve desenvolver diretrizes, como marcas d'água, para ajudar as pessoas a identificar o conteúdo criado pela IA.
• O Departamento de Energia dos EUA e o Departamento de Segurança Interna são responsáveis pelo monitoramento de riscos químicos, radiológicos, biológicos e até mesmo nucleares que possam surgir da IA.
• O governo também pretende produzir um documento que forneça medidas para o pessoal militar dos EUA utilizar a inteligência artificial “de forma segura, ética e eficaz nas suas missões”.
• Biden insta o Congresso a aprovar legislação bipartidária sobre privacidade para proteger todos os americanos, especialmente as crianças.
• O texto prevê a elaboração de um relatório para identificar potenciais riscos da IA no mercado de trabalho.
• A ordem também apela para acelerarem parcerias com outros países para garantir que a IA seja “segura e confiável”.
• Pressões globais
Desde que a IA se tornou popular em todo o mundo, e especialmente após o advento do ChatGPT, os decisores políticos nacionais começaram a pensar em formas de reduzir as ameaças da tecnologia à segurança e às economias nacionais. Em julho, grandes empresas de IA, como OpenAI, Google e Meta, comprometeram-se com a Casa Branca a implementar medidas para identificar conteúdo gerado por IA. Em junho, o líder da maioria no Senado dos EUA, Chuck Schumer, apelou a uma “legislação abrangente” para promover e garantir a proteção desta tecnologia.
Notícias recentes.