sexta-feira 22 de novembro de 2024
Painel de robôs humanoides habilitados por IA como parte da União Internacional de Telecomunicações (UIT) na Cúpula Mundial de IA para o Bem em Gnebra, em 7 de julho de 2023 - - Foto: AFP/Arquivo/Ilustração
Home / DESTAQUE / China, EUA e União Europeia concordam em trabalharem juntos para segurança de IA
quarta-feira 1 de novembro de 2023 às 18:16h

China, EUA e União Europeia concordam em trabalharem juntos para segurança de IA

DESTAQUE, MUNDO, NOTÍCIAS


A China concordou nesta quarta-feira (1º) em trabalhar com os Estados Unidos, União Europeia e outros países no gerenciamento coletivo dos riscos representados pela inteligência artificial (IA), com o objetivo de traçar um caminho seguro para a tecnologia.

Alguns executivos de empresas de tecnologia e líderes políticos alertaram de acordo com reportagem de  Paul Sandle e Martin Coulter, da Reuters, que o rápido desenvolvimento da IA representa uma ameaça existencial para o mundo se não for controlado, provocando uma corrida de governos e instituições internacionais para a criação de salvaguardas e regulamentações.

Em uma iniciativa inédita para os esforços ocidentais de gerenciar o desenvolvimento seguro da IA, um vice-ministro chinês juntou-se aos líderes dos EUA e da UE e a presidentes de empresas de tecnologia como Elon Musk e Sam Altman, do ChatGPT, no Bletchley Park, lar dos decifradores de códigos da Segunda Guerra Mundial, no Reino Unido.

Mais de 25 países presentes, incluindo os EUA e a China, bem como a UE, assinaram a “Declaração de Bletchley”, afirmando que os países precisam trabalhar juntos para estabelecerem uma abordagem comum de supervisão. Brasil e Chile foram os únicos países da América Latina com representantes na cúpula.

A declaração estabeleceu uma agenda dupla, focada na identificação de riscos de preocupação compartilhada e na construção de um entendimento científico sobre eles, além de desenvolver políticas entre países para mitigá-los.

Wu Zhaohui, vice-ministro de ciência e tecnologia da China, disse na sessão de abertura da cúpula de dois dias que Pequim estava pronto para aumentar a colaboração na segurança da IA para ajudar a construir uma “estrutura de governança” internacional.

“Não sei quais são necessariamente as regras justas, mas é preciso começar com a compreensão antes de fazer a supervisão”, disse Musk a jornalistas. Ele acrescentou que um “árbitro terceirizado” poderia ser usado para alertar quando surgirem riscos.

Enquanto a União Europeia concentrou a supervisão sobre IA na privacidade e vigilância de dados e seu possível impacto sobre os direitos humanos, a cúpula britânica analisa os chamados riscos existenciais de modelos de uso geral altamente capazes, chamados de “IA de fronteira”.

Mustafa Suleyman, cofundador do Google Deepmind, disse a jornalistas que não acha que os atuais modelos de fronteira de IA representem quaisquer “danos catastróficos significativos”, mas disse que faz sentido planejar com antecedência, à medida que a indústria treina modelos cada vez maiores.

Os EUA deixaram claro na véspera da cúpula que o convite a Pequim veio em grande parte da Grã-Bretanha. A embaixadora do Reino Unido Jane Hartley disse à Reuters que “este é o convite do Reino Unido, não dos EUA.”

A decisão da vice-presidente dos EUA, Kamala Harris, de fazer um discurso em Londres nesta quarta-feira sobre a resposta de seu governo à IA e de realizar algumas reuniões com participantes fora da cúpula, o que significa que os EUA poderiam sair do grupo antecipadamente, também levantou algumas sobrancelhas.

Mas representantes britânicos negaram, afirmando que o interesse era por se obter o maior número de vozes possível.

Apenas alguns dias depois do presidente dos EUA, Joe Biden, ter assinado uma ordem executiva sobre IA, seu governo usou a cúpula britânica para anunciar que vai lançar um “Instituto de Segurança de IA”.

Veja também

PF aponta Bolsonaro como “líder da organização criminosa” em relatório final

O relatório final de 884 páginas da Polícia Federal sobre o plano de golpe de …

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

error: Content is protected !!