A OpenAI Decide Contra a Inclusão do Modelo de Pesquisa Profunda na API de Desenvolvedores
A OpenAI Decide Contra a Inclusão do Modelo de Pesquisa Profunda na API de Desenvolvedores

Decisão e o Documento Técnico

A OpenAI anunciou que não trará seu modelo de inteligência artificial, usado para pesquisas aprofundadas, para sua API de desenvolvedores. A empresa busca entender como avaliar melhor os riscos associados à capacidade da IA de convencer indivíduos a mudar suas opiniões ou ações. Em um documento técnico publicado na quarta-feira, a OpenAI revelou que está revisando suas metodologias para investigar modelos em relação aos “riscos de persuasão no mundo real”, que podem incluir a disseminação em larga escala de informações enganosas.

Riscos de Desinformação

A OpenAI acredita que seu modelo de pesquisa profunda não é adequado para campanhas de desinformação, devido a seus altos custos computacionais e velocidade relativamente lenta. No entanto, a companhia planeja explorar questões como a possibilidade de que a IA personalize conteúdos persuasivos potencialmente prejudiciais antes de disponibilizar esse modelo em sua API.

“Enquanto revisamos nossa abordagem à persuasão, estamos utilizando este modelo apenas no ChatGPT, e não na API”, afirmou a OpenAI.

Há preocupações reais de que a IA esteja contribuindo para a propagação de informações falsas ou enganosas, cujo objetivo é manipular pessoas para fins maliciosos. Por exemplo, no ano passado, deepfakes políticos se espalharam rapidamente pelo mundo. No dia das eleições em Taiwan, um grupo vinculado ao Partido Comunista da China postou um áudio gerado por IA, que parecia um político apoiando um candidato pró-China.

Uso Crescente em Ataques

A inteligência artificial também está sendo cada vez mais utilizada para realizar ataques de engenharia social. Consumidores têm sido enganados por deepfakes de celebridades que oferecem oportunidades de investimento fraudulentas, enquanto empresas têm sido lesadas em milhões por impostores deepfake que imitam executivos financeiros.

Resultados dos Testes do Modelo de Pesquisa Profunda

No documento, a OpenAI apresentou os resultados de vários testes sobre a persuasão de seu modelo de pesquisa profunda. Este modelo é uma versão especial do recém-anunciado modelo o3, otimizado para navegação na web e análise de dados.

Em um dos testes, onde o modelo de pesquisa profunda foi desafiado a escrever argumentos persuasivos, ele teve o melhor desempenho em comparação com outros modelos lançados pela OpenAI até o momento, embora ainda não tenha superado o padrão humano. Em outro teste, quando o modelo buscou convencer outro modelo (o GPT-4o) a realizar um pagamento, o desempenho também foi superior ao de outros modelos disponíveis da OpenAI.

A pontuação do modelo de pesquisa profunda no teste MakeMePay, que avalia a capacidade do modelo de persuadir outro modelo a entregar dinheiro, foi notável.

A OpenAI Decide Contra a Inclusão do Modelo de Pesquisa Profunda na API de Desenvolvedores 3

Desempenho e Limitações

No entanto, o modelo de pesquisa profunda não se destacou em todos os testes de persuasão. De acordo com o documento, o modelo teve um desempenho inferior em persuadir o GPT-4o a revelar uma palavra-chave em comparação ao próprio GPT-4o.

A OpenAI observou que os resultados dos testes provavelmente representam os “limites inferiores” das capacidades do modelo de pesquisa profunda. “Melhorias adicionais na estrutura ou na elicitação de capacidades poderiam aumentar substancialmente o desempenho observado”, acrescentou a empresa.

Conclusão e Contato com a OpenAI

Entramos em contato com a OpenAI para obter mais informações e atualizaremos esta postagem caso recebamos uma resposta. A decisão de não incluir o modelo na API dos desenvolvedores pode garantir maior controle sobre os riscos associados à persuasão e desinformação, enquanto a OpenAI continua trabalhando em melhorias.

FAQ

Por que a OpenAI não incluirá o novo modelo de pesquisa AI na API de desenvolvedores?

A OpenAI decidiu que não trará seu modelo de inteligência artificial, usado para pesquisas aprofundadas, para sua API de desenvolvedores. Essa decisão está relacionada à busca por uma avaliação mais cuidadosa dos riscos associados à capacidade da IA de persuadir pessoas. De acordo com a empresa, é importante entender melhor os riscos de persuasão para evitar manipulação e a disseminação de informações enganosas.

Quais são os riscos de desinformação relacionados ao modelo de pesquisa profunda?

A OpenAI acredita que o modelo de pesquisa profunda não é apropriado para campanhas de desinformação, principalmente devido aos altos custos computacionais e à velocidade menor em comparação com outras soluções. A empresa está avaliando como a IA pode criar conteúdos persuasivos que podem ser prejudiciais, o que justifica seu uso restrito, atualmente, só dentro do ChatGPT e não na API.

Como a inteligência artificial tem sido utilizada em ataques de engenharia social?

Inteligência artificial tem sido utilizada em vários ataques de engenharia social, onde deepfakes de celebridades foram usados para enganar consumidores em fraudes de investimento. Além disso, empresas foram lesadas por impostores deepfake que imitam executivos financeiros, culminando em perdas financeiras significativas. Isso evidencia a crescente preocupação com o uso malicioso da IA em contextos enganosos.

Quais foram os resultados dos testes do modelo de pesquisa profunda?

No documento técnico, a OpenAI relatou que o modelo de pesquisa profunda teve um desempenho melhor ao gerar argumentos persuasivos em comparação com outros modelos, embora não tenha superado o padrão humano. Em testes específicos, como o MakeMePay, onde a persuasão para realização de pagamentos foi avaliada, o desempenho do modelo foi notável, refletindo suas capacidades avançadas.

Quais limitações o modelo de pesquisa profunda apresentou durante os testes?

Embora o modelo de pesquisa profunda tenha se destacado em alguns testes, ele não obteve sucesso em todos. Por exemplo, ao tentar persuadir o GPT-4o a revelar uma palavra-chave, o modelo se saiu pior em comparação ao próprio GPT-4o. Isso destaca que, apesar de suas capacidades, ainda existem limitações a serem superadas.

O que a OpenAI pretende fazer em relação ao modelo de pesquisa profunda?

A OpenAI está revisando sua abordagem sobre persuasão e pretende explorar melhorias para o modelo de pesquisa profunda. A empresa acredita que com melhorias na estrutura e na elicitação de capacidades, o desempenho do modelo pode ser substancialmente aumentado. Portanto, continuaram o desenvolvimento, mas com cautela em relação ao uso na API.

Como a OpenAI lida com preocupações sobre a propagação de desinformação?

Para lidar com as preocupações de desinformação, a OpenAI está sendo cautelosa em sua abordagem à IA persuasiva. A empresa considera essencial avaliar os riscos associados a essas tecnologias antes de disponibilizá-las em sua API. Isso indica um compromisso com a responsabilidade e a mitigação de impactos sociais negativos da IA.

Qual foi a resposta da OpenAI ao testemunho de sua pesquisa em persuasão?

A OpenAI divulgou que os resultados dos testes de persuasão refletem os “limites inferiores” das capacidades do modelo de pesquisa profunda, sugerindo que melhorias adicionais poderiam ser feitas. Isso demonstra que a empresa está ciente de que há espaço para desenvolvimento e que é possível aprimorar o modelo ao usar técnicas mais refinadas no futuro.

Como a OpenAI se mantém atualizada sobre sua tecnologia?

A OpenAI continua a contatar e atualizar informações sobre suas tecnologias. No documento mencionado, a empresa se comprometeu a revisar constantemente sua capacidade de persuasão e desinformação, buscando feedback e realizando testes adicionais para garantir que suas implementações sejam seguras e eficazes.

Qual é o objetivo final da OpenAI em relação à persuasão através da inteligência artificial?

O objetivo final da OpenAI é controlar os riscos associados à persuasão por meio da inteligência artificial, garantindo que suas tecnologias não contribuam para a propagação de desinformação. A empresa tenha em mente a segurança e a ética, buscando sempre melhorias e revisões para lidar com os potenciais impactos negativos de suas inovações.

Com informações: TechCrunch

Veja também: Bitcoin Cai Abaixo de US$ 90k: O Impacto das Tarifas de Trump

Compartilhar.
Exit mobile version