Em maio de 2023, escrevi aqui na RQC um artigo abordando como os avanços da inteligência artificial (IA), especialmente a explosão de chatbots baseados em IA generativa, estavam se tornando uma nova fronteira da desinformação. Desde então, o campo da IA continuou a evoluir rapidamente, gerando novos avanços, e também trazendo à tona preocupações éticas. Este texto busca atualizar o debate, destacando os progressos do último ano e expondo os desafios associados ao uso inadequado dessas tecnologias. O cenário atual exige, mais do que há um ano, uma reflexão urgente sobre regulação e conscientização.
Nos últimos anos, a IA alcançou progressos significativos. Os avanços incluem o desenvolvimento de carros autônomos, robôs capazes de fazer piruetas impossíveis para o ser humano comum, entre outros. Se o leitor deseja uma melhor compreensão do progresso da robótica encapsulado no vídeo do link anterior, recomendo este outro vídeo, que mostra sua evolução ao longo das últimas quatro décadas. Há dez anos, era impensável que robôs pudessem realizar tarefas como dançar ou dar piruetas com tamanha precisão.
Na área da saúde, algoritmos avançados já são usados para diagnósticos mais rápidos e precisos. Na educação, plataformas de aprendizado adaptativo personalizam métodos de ensino, buscando melhorar a experiência dos alunos. Sistemas de recomendação de filmes e produtos também se tornaram parte integrante do cotidiano.
Contudo, a geração de imagens realistas e textos complexos em linguagem natural talvez sejam os progressos de maior impacto sobre a vida cotidiana e onde o público em geral percebeu os avanços mais significativos.
Um exemplo impressionante do avanço na geração de vídeos por IA são os teaser trailers de filmes fictícios. Vídeos altamente realistas sobre hipotéticos filmes como Star Trek, Star Wars, He-Man e Thundercats inundaram o YouTube. Essas produções mostram como a IA pode criar conteúdos extremamente convincentes e enganosos, levantando sérias preocupações éticas. Em certo sentido, já estamos vivendo num mundo onde é difícil saber o que é ou não real, ao menos no que concerne ao conteúdo digital.
Com a proximidade das eleições municipais no Brasil, o uso de deepfakes para manipulação digital já gerou reações do Tribunal Superior Eleitoral (TSE), que proibiu o uso de certas ferramentas de IA em campanhas eleitorais. No entanto, essa regulamentação, embora necessária, não é capaz de conter o uso dessa tecnologia de forma antiética. Por exemplo, já há relatos de áudios falsos em que a voz do jornalista William Bonner é manipulada para dizer coisas que ele nunca afirmou (veja aqui, aqui e aqui).
E esse não é um problema exclusivamente brasileiro. Nos EUA, um deepfake de voz foi usado recentemente para imitar o presidente Joe Biden, manipulando informações e enganando o público. Veremos inúmeros episódios similares nos próximos anos, ao menos até o desenvolvimento de uma robusta tecnologia de detecção de conteúdo digital fraudulento e sua adoção massiva pelas sociedades mundo a fora.
Alguns países, como os Estados Unidos e os membros da União Europeia, têm implementado regulamentações para garantir o uso seguro da IA. No Brasil, o Projeto de Lei 2.338/2023, em discussão no Senado, propõe medidas regulatórias inspiradas na legislação recentemente aprovada na União Europeia. Contudo, surge a questão: um projeto desenvolvido para a União Europeia é completamente adequado para o Brasil? Claramente, não. O contexto socioeconômico e cultural do Brasil requer adaptações específicas. Além disso, a falta de participação da sociedade civil nas discussões pode resultar em um texto influenciado pelo lobby das grandes corporações de tecnologia, em detrimento do interesse público.
Paralelamente, o governo federal lançou o "Plano IA para o Bem de Todos", que propõe uma abordagem abrangente para o uso ético da IA, com foco na formação de talentos, infraestrutura sustentável e inclusão social. No entanto, o plano ainda enfrenta desafios, especialmente na definição de mecanismos claros de fiscalização e proteção contra impactos negativos, como discriminação algorítmica e violações de privacidade.
Dada a evolução rápida da IA e seu impacto em todos os setores, torna-se urgente incluir seu ensino em todos os níveis de educação. Assim como aprender a usar um computador nos anos 90 era essencial para oportunidades profissionais, o conhecimento básico de IA hoje é crucial para garantir melhores empregos em praticamente todas as áreas. O "Plano IA para o Bem de Todos" prevê ações para fomentar essas habilidades, mas é necessário acelerar esses esforços para que uma parcela significativa da sociedade não fique para trás.
À medida que a inteligência artificial continua a se desenvolver rapidamente, precisamos lidar com seus potenciais benefícios e riscos. Nesse sentido, é crucial que o Brasil continue investindo em infraestrutura, regulação e capacitação, aproveitando o potencial da IA para o bem comum, enquanto minimiza seus riscos e promove uma sociedade mais justa e informada.
Americo Cunha Jr é Professor Associado do Departamento de Matemática Aplicada da Universidade do Estado do Rio de Janeiro (UERJ). Seus trabalhos de pesquisa combinam sistemas dinâmicos e técnicas de inteligência artificial para descrever fenômenos complexos