Regulamentação de IA nos EUA: Um olhar sobre esforços legislativos e inovações tecnológicas

André Rocha 2.2k visualizações
4 minutos de leitura
Regulamentação de IA

Desde o lançamento público do ChatGPT, líderes políticos em todo o mundo têm se empenhado no desenvolvimento da inteligência artificial (IA) e na criação de regulamentações para garantir que essa tecnologia evolua de forma responsável.

Nos Estados Unidos, o Congresso tem visto uma série de propostas legislativas abrangentes relacionadas à IA, que vão desde regulamentações sobre desenvolvedores de IA até a responsabilidade das empresas quando algo dá errado. A administração Biden também lançou ordens executivas e busca compromissos voluntários com gigantes da tecnologia.

Na Europa, a União Europeia está prestes a estabelecer as primeiras regras abrangentes relacionadas à IA.

Com tantas propostas em andamento, pode ser difícil acompanhar. Segundo o Conselho da Indústria de Tecnologia da Informação (ITI), mais de 50 projetos federais estão sendo analisados, além das iniciativas da administração Biden. John Miller, chefe jurídico do ITI, confirma que estão acompanhando pelo menos 150 propostas distintas.

Diversas abordagens

Muitas propostas visam estabelecer a direção que a legislação de IA deve seguir. O “SAFE Innovation Framework”, proposto pelo líder da maioria no Senado, Chuck Schumer, é notável por buscar regras que promovam segurança, proteção à inovação e valores democráticos. Schumer está focado em promover a inovação em IA para enfrentar a concorrência global, especialmente da China.

Senadores como Richard Blumenthal e Josh Hawley apresentaram um marco bipartidário com recomendações específicas, incluindo medidas de transparência e proteções para menores.

Outras propostas, como o “National AI Commission Act”, buscam criar comissões para estudar e recomendar abordagens à IA nos EUA.

Proteção da competitividade global e segurança

A rápida evolução da IA levanta preocupações sobre seu desenvolvimento e uso por adversários estrangeiros. Projetos como o “RESTRICT Act” visam monitorar e proibir transações tecnológicas com nações que representam riscos à segurança nacional.

IA e Seção 230

A Seção 230, que protege plataformas de serem responsabilizadas pelo conteúdo postado por usuários, está sob escrutínio. A questão é se essa seção protegeria empresas como a OpenAI de responsabilidades geradas por suas IA. Blumenthal e Hawley propuseram o “No Section 230 Immunity for AI Act” para esclarecer essa área cinzenta.

Foco na transparência

A transparência na IA é outro ponto de destaque. Projetos como o “TAG Act” exigem mais divulgação quando o público interage com sistemas automatizados. Outros propõem maior clareza sobre o uso de vídeos e imagens gerados por IA em anúncios políticos.

Ações regulatórias e proteção ao consumidor

Agências federais, como a Federal Trade Commission, estão usando sua autoridade atual para garantir que as tecnologias avançadas respeitem os direitos dos indivíduos. Eles buscam proteger os consumidores de práticas potencialmente injustas ou enganosas no mundo da IA.

Compromissos voluntários de segurança

Empresas líderes em tecnologia, incluindo Google, IBM e OpenAI, se comprometeram voluntariamente a adotar práticas seguras na IA. No entanto, muitos acreditam que a autoregulação não é suficiente. Para que tais compromissos sejam verdadeiramente eficazes, a força da lei pode ser necessária.

Em resumo, enquanto a revolução da IA avança rapidamente, o cenário regulatório ainda está em formação, buscando encontrar o equilíbrio entre a inovação e a segurança no ambiente digital. O mundo está atento aos desdobramentos nos Estados Unidos, à medida que buscam criar um terreno comum para a IA, que seja propício ao desenvolvimento responsável e à proteção dos interesses nacionais e globais.

Compartilhar este artigo