Até o ChatGPT recomenda regulamentação do uso de IA em períodos eleitorais. Leia a entrevista

Até o ChatGPT recomenda regulamentação do uso de IA em períodos eleitorais. Leia a entrevista

O contexto eleitoral preocupa não apenas especialistas e autoridades com a popularização do uso das tecnologias de inteligência artificial (IA). Os próprios robôs também estão preocupados. Ou ao menos o sistema de inteligência artificial ChatGPT, da empresa OpenAI. Em consulta feita pelo jornal O Globo (abaixo), ele aponta que a regulação, com foco na transparência, é uma necessidade e alerta para o risco do uso de imagens manipuladas em eleições.

O uso de tecnologias de IA será uma tendência nas eleições de 2024 no Brasil?

É provável que aumente, especialmente para análise de dados eleitorais, personalização de campanhas, segurança cibernética, combate a notícias falsas e autenticação biométrica. No entanto, desafios como a aceitação pública, regulamentação adequada, transparência, equidade no acesso à tecnologia e preocupações com segurança e privacidade devem ser considerados para garantir uma implementação ética e eficaz da IA no processo eleitoral.

O que esperar do uso de imagens manipuladas na disputa municipal?

É possível esperar o uso de imagens manipuladas com potencial para disseminar desinformação, influenciar a opinião pública, prejudicar a reputação de candidatos e impactar a integridade do processo eleitoral. Para mitigar esses riscos, é fundamental promover a conscientização, incentivar a verificação de fontes e fortalecer medidas contra a disseminação de desinformação.

Como fortalecer medidas contra a disseminação de desinformação com uso de inteligência artificial?

É essencial estabelecer regulamentações específicas, garantir transparência nos algoritmos, colaborar com especialistas, promover a educação digital, incentivar a verificação de fontes, criar canais eficientes para denúncia, investir em pesquisa contínua, e realizar campanhas de conscientização pública.

Como adotar essas medidas, já que há resistência das plataformas e dificuldade de regular a tempo o tema?

É essencial promover pressão pública, estabelecer parcerias público-privadas, oferecer incentivos financeiros, adotar normas voluntárias da indústria, realizar campanhas de conscientização, investir em tecnologias de verificação, facilitar o intercâmbio internacional de dados, promover autonomia digital e advogar por regulamentações ágeis.

Qual deve ser o foco dessa regulação?

A regulação para combater a desinformação deve focar em diversos aspectos, como aumentar a transparência nas plataformas, estabelecer responsabilidade clara, definir padrões para verificação de fatos, combater o viés algorítmico, promover cooperação internacional, educar digitalmente os usuários, proteger dados e privacidade, garantir regulamentações ágeis, transparentes em publicidade política, incentivar participação cidadã e envolvimento da sociedade civil. Essas medidas abrangentes visam criar um ambiente digital mais seguro e confiável.

Por que há tanta dificuldade em lidar com esse tema?

Lidar com a desinformação é difícil devido à rápida evolução tecnológica, à complexidade do ecossistema digital, ao desafio de equilibrar liberdade de expressão e combate à desinformação, ao viés algorítmico, à falta de cooperação internacional, à dificuldade na identificação precisa da desinformação, à resistência das plataformas digitais, à falta de consenso global, à necessidade de atuação multissetorial, à adaptação cultural e regional, e à natureza volátil do conteúdo online. Uma abordagem eficaz requer colaboração entre diferentes setores e a consideração cuidadosa de diversos desafios interligados.

Com informações de O Globo.

Por Jornal da República em 25/12/2023
Aguarde..