Regulamentação de IA: Proposta de lei exige identificação de conteúdo gerado por inteligência artificial

[ad_1]

Uma legislação bipartidária apresentada na Câmara dos Deputados na quinta-feira exigiria a identificação e rotulagem de imagens, vídeos e áudios online gerados por inteligência artificial. Esta é a mais recente tentativa de controlar tecnologias que estão se desenvolvendo rapidamente e que, se mal utilizadas, poderiam facilmente enganar e induzir ao erro.

Os chamados deepfakes, criados por inteligência artificial, podem ser difíceis ou até impossíveis de distinguir do real. A IA já foi usada para imitar a voz do presidente Joe Biden, explorar a semelhança de celebridades e imitar líderes mundiais, gerando temores de que isso possa levar a uma maior desinformação, exploração sexual, fraudes ao consumidor e uma perda generalizada de confiança.

A Proposta de Lei

As principais disposições da legislação exigiriam que os desenvolvedores de IA identificassem o conteúdo criado com seus produtos por meio de marcas d’água digitais ou metadados, de forma semelhante a como os metadados de fotos registram a localização, o horário e as configurações de uma imagem. Plataformas online como TikTok, YouTube ou Facebook seriam então obrigadas a rotular o conteúdo de uma maneira que notificasse os usuários. Os detalhes finais das regras propostas seriam elaborados pelo Instituto Nacional de Padrões e Tecnologia, uma pequena agência do Departamento de Comércio dos EUA.

Penalidades Propostas

Os infratores da regra proposta estariam sujeitos a processos civis. “Já vimos tantos exemplos, seja manipulação de voz ou um deepfake de vídeo. Acho que o povo americano merece saber se algo é um deepfake ou não”, disse a deputada Anna Eshoo, uma democrata que representa parte do Vale do Silício na Califórnia. Eshoo copatrocinou o projeto de lei com o deputado republicano Neal Dunn, da Flórida.

Se aprovado, o projeto de lei complementaria os compromissos voluntários das empresas de tecnologia, bem como uma ordem executiva sobre IA assinada por Biden no outono passado que direcionou o NIST e outras agências federais a estabelecer diretrizes para produtos de IA. Essa ordem também exigia que os desenvolvedores de IA fornecessem informações sobre os riscos de seus produtos.

O projeto de lei de Eshoo é uma das poucas propostas apresentadas para abordar as preocupações sobre os riscos representados pela IA, preocupações compartilhadas por membros de ambos os partidos. Muitos dizem que apoiam a regulamentação que protegeria os cidadãos, ao mesmo tempo em que garantiria que um campo em rápido crescimento possa continuar a se desenvolver de maneiras que beneficiem uma longa lista de setores, como saúde e educação.

O projeto de lei agora será considerado pelos legisladores, que provavelmente não conseguirão aprovar regras significativas para a IA a tempo de entrarem em vigor antes das eleições de 2024.

“O aumento da inovação no mundo da inteligência artificial é empolgante; no entanto, tem potencial para causar grandes danos se cair nas mãos erradas”, disse Dunn em um comunicado anunciando a legislação. Exigir a identificação de deepfakes, disse ele, é uma “salvaguarda simples” que beneficiaria consumidores, crianças e a segurança nacional.

A Reação da Indústria

Várias organizações que defendem maiores salvaguardas na IA disseram que o projeto de lei apresentado na quinta-feira representava progresso. Alguns desenvolvedores de IA, como Margaret Mitchell, cientista-chefe de ética em IA da Hugging Face, que criou um rival do ChatGPT chamado Bloom, disseram que o foco do projeto de lei em incorporar identificadores no conteúdo de IA – conhecido como marca d’água – “ajudará o público a ganhar controle sobre o papel do conteúdo gerado em nossa sociedade”.

“Estamos entrando em um mundo onde está se tornando incerto qual conteúdo é criado por sistemas de IA e impossível saber de onde veio o conteúdo gerado por IA diferente”, disse ela.

[ad_2]

Source link

Leave a Comment