Publicidade

[uam_ad id=”3500″]

Lições para a regulamentação da Inteligência Artificial

Colunista: Tiago Pereiras

Publicidade

Regulamentação do dinheiro e combate à falsificação: um breve histórico

Desde os tempos antigos, o dinheiro enfrenta desafios significativos relacionados à falsificação e à confiança do público. Cada nova forma de moeda, das moedas de metal aos papéis-moeda e, mais recentemente, as moedas digitais, exigiu ajustes legais e tecnológicos para impedir a falsificação e promover a confiança pública. O desenvolvimento da regulamentação monetária tem sua base em três pilares principais:

  1. Estabelecimento de normas de produção e controle: a falsificação tem sido combatida com melhorias nas tecnologias de impressão, uso de materiais especiais, sistemas de marca d’água e, mais recentemente, códigos de barras e QR codes em notas. Países investiram na padronização dos processos de produção e aprimoraram a segurança no design das cédulas para dificultar falsificações.
  2. Instituições de supervisão: a criação de instituições como o Banco Central e o Tesouro Nacional em diversos países foi fundamental para manter a integridade monetária. Essas instituições asseguram que apenas o dinheiro genuíno esteja em circulação e monitoram o sistema financeiro para evitar práticas fraudulentas, garantindo a estabilidade e confiança no sistema monetário.
  3. Legislação e punições rigorosas: a falsificação de moeda é geralmente considerada um crime grave, e legislações rígidas foram implementadas para punir os falsificadores. Leis como a Currency and Banknotes Act no Reino Unido e as regras de combate à falsificação em vários países ajudaram a manter a confiança pública, ao mostrar que havia um forte compromisso do governo em proteger a economia.

Esses mecanismos de controle e regulamentação permitiram ao dinheiro ganhar a confiança do público e se estabelecer como uma ferramenta de troca essencial e confiável.

Confiança e relevância do dinheiro na economia global

Para que a moeda seja amplamente aceita, o público precisa acreditar em seu valor e na capacidade de troca, e isso depende de um sistema robusto que garante a autenticidade e o valor do dinheiro. Os governos têm trabalhado para aumentar a confiança na moeda de várias maneiras:

  • Estabilidade monetária: a confiança no valor do dinheiro está diretamente relacionada à estabilidade econômica. Países que mantêm inflação controlada e políticas monetárias estáveis reforçam a percepção de que o dinheiro mantém seu valor ao longo do tempo.
  • Transparência e inclusão: a regulação monetária também envolve políticas de inclusão financeira, de modo que todos os cidadãos possam confiar no sistema e sentir que têm acesso a ele.
  • Interoperabilidade global: a padronização da moeda e sua aceitação global fortaleceram a confiança e facilitaram as transações internacionais. Isso é algo que a IA também precisará alcançar: interoperabilidade e aceitação transnacional, de forma a não ser limitada por barreiras locais de regulamentação, que poderiam enfraquecer seu impacto global.

Esse conjunto de ações formou a base da confiança e relevância do dinheiro no cenário econômico. Isso mostra que a regulamentação eficaz e a adaptação do sistema financeiro ao longo do tempo foram essenciais para consolidar o papel do dinheiro.

Lições para a Regulamentação da Inteligência Artificial (IA)

Dado o contexto acima, é possível traçar paralelos claros entre o desenvolvimento do sistema financeiro e os desafios atuais para a regulamentação da IA. Assim como o dinheiro, a IA requer regulamentações robustas para se estabelecer como uma tecnologia confiável e segura. A seguir, estão três lições-chave que a regulamentação da IA pode aprender com o sistema financeiro:

  1. Segurança e confiança na origem: assim como os governos implementaram mecanismos rigorosos para garantir a autenticidade das moedas e cédulas, a IA precisa de uma base de confiança nas suas fontes e processos. Regulamentações que exijam transparência nas fontes de dados, na modelagem e no treinamento de algoritmos, incluindo marcas d’água e “assinaturas digitais” para IA, poderiam garantir que as aplicações de IA sejam autênticas e seguras.
  2. Instituições regulatórias e supervisão internacional: assim como o sistema financeiro é supervisionado por instituições específicas, a IA poderia se beneficiar de uma governança global com estruturas de supervisão. Organizações como a União Europeia e as Nações Unidas têm estudado a criação de órgãos regulatórios de IA que monitorariam seu desenvolvimento e aplicariam penalidades para práticas enganosas ou prejudiciais.
  3. Punições para fraude e má utilização: o sistema financeiro implementou punições severas para a falsificação e fraude para proteger a economia e a sociedade. De forma semelhante, a regulamentação da IA deve incluir penalidades significativas para usos abusivos, como manipulação de dados, uso inadequado de informações pessoais, ou algoritmos discriminatórios. Isso é necessário para proteger a sociedade e garantir que a IA seja desenvolvida e utilizada de forma ética.

Sugestão do chat GPT sobre como regulamentar a IA

1. Transparência e Explicabilidade

  • Requisitos de explicabilidade: as decisões tomadas por sistemas de IA devem ser explicáveis. Isso significa que qualquer pessoa impactada por uma decisão da IA deve ter o direito de saber como a decisão foi feita e quais dados foram utilizados.
  • Documentação completa: as empresas devem manter documentação detalhada dos algoritmos, processos de treinamento e fontes de dados, facilitando auditorias e verificações de conformidade.

2. Responsabilidade e supervisão humana

  • Supervisão e intervenção humana: certas decisões críticas ou sensíveis tomadas por IA (como as relacionadas à saúde ou justiça) devem sempre ter uma supervisão humana.
  • Responsabilidade legal: empresas que desenvolvem ou utilizam IA devem ser responsáveis legalmente pelos resultados e pelas falhas dos sistemas, especialmente em áreas críticas como saúde, finanças e segurança pública.

3. Segurança e controle de qualidade

  • Certificação e testes: as IAs precisam passar por processos rigorosos de testes e certificações antes de serem liberadas no mercado, similar a produtos farmacêuticos ou de segurança automotiva.
  • Atualizações de segurança contínuas: a regulamentação deve exigir que os desenvolvedores mantenham os sistemas de IA atualizados contra vulnerabilidades de segurança, especialmente para evitar hacking e manipulação.

4. Privacidade e proteção de dados

  • Anonimização de dados: a IA deve processar dados anonimizados sempre que possível, protegendo a privacidade dos indivíduos.
  • Consentimento e controle de dados: usuários devem ser informados sobre como seus dados são utilizados e ter o direito de optar ou não pelo uso de seus dados para treinamento de IA, além de ter o direito de exclusão

5. Mitigação de viés e discriminação

  • Testes antidiscriminatórios: regulamentações devem exigir que sistemas de IA sejam testados para detectar e corrigir vieses, assegurando que não discriminem com base em raça, gênero, idade ou outros fatores protegidos.
  • Conjuntos de dados diversos: devem ser incentivadas boas práticas para garantir que as bases de dados utilizadas para o treinamento da IA sejam diversificadas e representativas, reduzindo o risco de preconceitos.

6. Ética e padrões de uso

  • Proibições de usos perigosos: alguns usos de IA, como armas autônomas ou vigilância em massa, podem ser restringidos ou proibidos, especialmente se apresentarem riscos significativos à sociedade ou aos direitos humanos.
  • Declaração de identidade de IA: sempre que uma IA interagir com uma pessoa, ela deve se identificar claramente como um sistema artificial para evitar confusões.

7. Governança e supervisão regulatória

  • Agências de supervisão: criar agências nacionais e internacionais dedicadas exclusivamente à regulamentação e supervisão da IA, garantindo que todas as partes interessadas, desde desenvolvedores até o público, estejam representadas.
  • Comitês de ética: empresas de IA devem manter comitês internos de ética que monitoram o impacto social dos produtos de IA e oferecem recomendações de políticas de uso responsável.

8. Accountability e rastreabilidade

  • Histórico e logs de decisão: sistemas de IA devem manter registros completos das suas decisões e processos de execução para que, em casos de falha ou erro, seja possível rastrear a causa.
  • Direito à explicação e apelação: indivíduos afetados por decisões da IA devem ter o direito de questionar essas decisões e, se necessário, buscar revisão humana.

9. Interoperabilidade e padrões técnicos

  • Padrões técnicos unificados: os reguladores podem trabalhar para criar padrões técnicos globais, garantindo que as IAs sejam interoperáveis e possam funcionar em diferentes setores, regiões e contextos.
  • Portabilidade de dados e transferibilidade: regulamentações podem exigir que os dados e algoritmos sejam exportáveis entre diferentes sistemas e plataformas, promovendo a transparência e evitando monopólios tecnológicos.

10. Educação e conscientização pública

  • Programas de educação pública: incentivar a educação e conscientização da população sobre IA, ajudando as pessoas a entenderem como a IA funciona e como ela impacta a vida cotidiana.
  • Engajamento com stakeholders: reguladores devem incluir pesquisadores, empresas e o público nas discussões regulatórias para garantir que as regras de IA reflitam as necessidades e expectativas da sociedade.
  •  

11. Revisão e atualização contínuas

  • Revisão contínua da legislação: a regulamentação de IA deve ser atualizada regularmente para acompanhar a evolução tecnológica, evitando que as leis fiquem desatualizadas.
  • Testes de segurança e conformidade: os sistemas de IA devem ser submetidos a testes periódicos para garantir que continuam a cumprir os padrões de segurança e ética estabelecidos.

Conclusão

Assim como o dinheiro, que enfrentou grandes desafios antes de se tornar a base das economias modernas, a IA exige uma estrutura regulatória que aumente a confiança, iniba usos abusivos e garanta transparência e responsabilidade. Inspirando-se na regulamentação monetária, os formuladores de políticas e reguladores de IA podem promover uma adoção mais segura e confiável dessa tecnologia.

Regular a IA de forma eficaz exige um equilíbrio entre inovação e proteção social. A regulamentação deve permitir o avanço da IA, mas sempre com a segurança e os direitos da sociedade em primeiro lugar. Com esses princípios, as políticas de IA podem criar uma estrutura que fomente a confiança, promova a transparência e garanta que essa tecnologia beneficie a sociedade de maneira justa e ética.

Leia outros artigos

O que achou desse artigo?

Publicidade

Publicidade

Publicidade

REF&H
Enviar