Criador do ChatGPT adverte sobre os perigos da IA

Os humanos eventualmente precisarão “desacelerar essa tecnologia”, alertou Sam Altman

Criador do ChatGPT adverte sobre os perigos da IA

A inteligência artificial tem o potencial de substituir trabalhadores, espalhar “desinformação” e permitir ataques cibernéticos, alertou Sam Altman, CEO da OpenAI. A versão mais recente do programa GPT da OpenAI pode superar a maioria dos humanos em testes simulados.

“Temos que ter cuidado aqui”, disse Altman à ABC News na quinta-feira, dois dias depois que sua empresa revelou seu mais recente modelo de linguagem, apelidado de GPT-4. De acordo com a OpenAI, o modelo “exibe desempenho de nível humano em vários benchmarks profissionais e acadêmicos” e é capaz de passar em um exame de barra simulado dos EUA com uma pontuação máxima de 10%, enquanto se apresenta no 93º percentil em um exame de leitura SAT e em o percentil 89 em um teste de matemática SAT.

“Estou particularmente preocupado que esses modelos possam ser usados ??para desinformação em larga escala”, disse Altman. “Agora que eles estão melhorando na escrita de códigos de computador, [eles] podem ser usados ??para ataques cibernéticos ofensivos.”

 “Acho que as pessoas deveriam ficar felizes por termos um pouco de medo disso”, acrescentou Altman, antes de explicar que sua empresa está trabalhando para colocar “limites de segurança” em sua criação.

Esses “limites de segurança” recentemente se tornaram aparentes para os usuários do ChatGPT, um popular programa de chatbot baseado no predecessor do GPT-4, o GPT-3.5. Quando solicitado, o ChatGPT oferece respostas tipicamente liberais a questões envolvendo política, economia, raça ou gênero. Recusa -se , por exemplo, a fazer poesia admirando Donald Trump, mas de bom grado escreve prosa admirando Joe Biden.

Altman disse à ABC que sua empresa está em “contato regular” com funcionários do governo, mas não detalhou se esses funcionários desempenharam algum papel na formação das preferências políticas do ChatGPT. Ele disse à rede americana que a OpenAI tem uma equipe de formuladores de políticas que decidem “o que achamos que é seguro e bom” para compartilhar com os usuários.

 No momento, o GPT-4 está disponível para um número limitado de usuários em caráter experimental. Os primeiros relatórios sugerem que o modelo é significativamente mais poderoso que seu antecessor e potencialmente mais perigoso. Em um tópico no Twitter na sexta-feira, o professor da Universidade de Stanford, Michal Kosinski, descreveu como perguntou ao GPT-4 como ele poderia ajudá-lo a “escapar”, apenas para a IA entregar a ele um conjunto detalhado de instruções que supostamente daria controle sobre computador dele.

Kosinski não é o único fã de tecnologia alarmado com o crescente poder da IA. O CEO da Tesla e do Twitter, Elon Musk, descreveu-a como “tecnologia perigosa” no início deste mês, acrescentando que “precisamos de algum tipo de autoridade reguladora supervisionando o desenvolvimento da IA ??e garantindo que ela esteja operando de acordo com o interesse público”. 

 Embora Altman tenha insistido para a ABC que o GPT-4 ainda está “muito sob controle humano”, ele admitiu que seu modelo “eliminará muitos empregos atuais” e disse que os humanos “precisarão descobrir maneiras de desacelerar essa tecnologia. ao longo do tempo."

Da RT via Brasil247 Última Hora / Ascom / Imagem: Redes

 

Por Jornal da República em 19/03/2023
Aguarde..