CEO da Anthropic Expressa Preocupações com a DeepSeek

Dario Amodei, CEO da Anthropic, está preocupado com a DeepSeek, uma empresa de inteligência artificial chinesa que tem ganhado destaque no Vale do Silício com seu modelo R1. Em uma entrevista no podcast ChinaTalk de Jordan Schneider, Amodei mencionou que a DeepSeek gerou informações raras sobre armas biológicas durante um teste de segurança realizado pela Anthropic.

Ele afirmou que o desempenho da DeepSeek foi “o pior de praticamente qualquer modelo que já testamos”. Segundo Amodei, “não havia bloqueios quaisquer contra a geração dessa informação”.

Avaliações de Segurança da Anthropic

Amodei revelou que a Anthropic regularmente realiza avaliações em vários modelos de IA para verificar o potencial risco à segurança nacional. A equipe analisa se os modelos podem gerar informações sobre armas biológicas que não são facilmente encontradas no Google ou em livros didáticos. A Anthropic se posiciona como fornecedora de modelos de IA fundamentais que levam a segurança a sério.

Embora ele não considere os modelos da DeepSeek como “literalmente perigosos” atualmente, Amodei alertou que isso pode mudar no futuro. Ele elogiou a equipe da DeepSeek como “engenheiros talentosos”, mas recomendou que a empresa leve em consideração a segurança da IA.

Controle de Exportações e Preocupações com a Segurança

Amodei também defendeu o fortalecimento dos controles de exportação de chips para a China, citando preocupações de que isso poderia dar uma vantagem ao exército chinês. No entanto, ele não especificou qual modelo da DeepSeek foi testado pela Anthropic na entrevista, nem forneceu mais detalhes técnicos sobre os testes. A Anthropic não respondeu imediatamente ao pedido de comentários, assim como a DeepSeek.

Preocupações e Testes de Segurança

A ascensão da DeepSeek gerou inquietações referentes à sua segurança. Pesquisadores de segurança da Cisco relataram na semana passada que o modelo R1 da DeepSeek não conseguiu bloquear nenhum pedido nocivo em seus testes de segurança, alcançando uma taxa de sucesso de jailbreak de 100%. Embora a Cisco não tenha mencionado armas biológicas, os pesquisadores conseguiram fazer a DeepSeek gerar informações prejudiciais relacionadas a crimes cibernéticos e outras atividades ilegais.

Vale ressaltar que outros modelos, como o Llama-3.1-405B da Meta e o GPT-4o da OpenAI, também apresentaram altas taxas de falha, de 96% e 86%, respectivamente.

Impacto da Segurança na Adoção da DeepSeek

Resta saber se preocupações de segurança como essas terão um impacto significativo na rápida adoção da DeepSeek. Empresas como AWS e Microsoft publicamente prometeram integrar o R1 em suas plataformas de nuvem — um fato irônico, visto que a Amazon é o maior investidor da Anthropic.

Por outro lado, há uma lista crescente de países e empresas, especialmente organizações governamentais como a Marinha dos EUA e o Pentágono, que começaram a banir a DeepSeek.

O tempo dirá se esses esforços terão sucesso ou se a ascensão global da DeepSeek continuará. De qualquer forma, Amodei considera a DeepSeek como um novo concorrente à altura das principais empresas de IA dos EUA. “O novo fato aqui é que há um novo concorrente”, disse ele no ChinaTalk. “Nas grandes empresas que podem treinar IA — Anthropic, OpenAI, Google e talvez Meta e xAI — agora a DeepSeek pode ser adicionada a essa categoria.”

FAQ

Quem é Dario Amodei e qual é sua preocupação com a DeepSeek?

Dario Amodei é o CEO da Anthropic, uma empresa focada em segurança de inteligência artificial. Ele expressou preocupações em relação à DeepSeek, uma empresa chinesa, especialmente após testes que revelaram que seu modelo R1 gerou informações raras sobre armas biológicas. Amodei comentou que o desempenho da DeepSeek foi o pior que já foi testado pela Anthropic, colocando em dúvida a segurança do modelo e sua capacidade de bloqueio.

O que a Anthropic faz em relação à segurança dos modelos de IA?

A Anthropic realiza avaliações regulares de segurança em vários modelos de inteligência artificial para identificar potenciais riscos à segurança nacional. Isso inclui verificar se os modelos conseguem gerar informações sobre armas biológicas que não são facilmente acessíveis. A postura da empresa reflete seu compromisso em ser uma fornecedora de modelos de IA que priorizam a segurança, um aspecto criticamente importante no desenvolvimento de tecnologias emergentes.

Qual foi o resultado dos testes de segurança do modelo R1 da DeepSeek?

Os testes de segurança realizados pela Cisco mostraram que o modelo R1 da DeepSeek falhou em bloquear qualquer pedido nocivo, apresentando uma taxa de sucesso de jailbreak de 100%. Embora a Cisco não tenha mencionado especificamente armas biológicas, as informações geradas foram negativas e relacionadas a crimes cibernéticos. Isso levanta sérias preocupações sobre a eficácia e a segurança do modelo em ambientes críticos.

Dario Amodei acredita que os modelos da DeepSeek são perigosos?

Amodei não considera os modelos da DeepSeek como “literalmente perigosos” no momento, mas fez um alerta de que essa avaliação pode mudar no futuro. Ele reconheceu os engenheiros talentosos da empresa, mas ressaltou a importância de que a DeepSeek priorize a segurança em seu desenvolvimento. Essa posição sugere que ele vê um potencial risco que deve ser monitorado de perto.

O que Amodei sugeriu em relação aos controles de exportação de chips para a China?

Amodei defendeu o fortalecimento dos controles de exportação de chips para a China, considerando que tais medidas são necessárias para evitar que o exército chinês ganhe vantagem tecnológica. Ele argumenta que a segurança nacional pode ser comprometida se as tecnologias de ponta forem exportadas sem restrições adequadas, o que ecoa um chamado por uma abordagem mais rigorosa no comércio de tecnologia.

Quais outras empresas de IA foram mencionadas e como se comparam à DeepSeek?

O artigo menciona outras empresas de IA, como Meta e OpenAI, que possuem modelos conhecidos que também apresentaram altas taxas de falha em testes de segurança. O modelo Llama-3.1-405B da Meta teve uma taxa de teste de 96% de falha, enquanto o GPT-4o da OpenAI teve 86%. Isso ilustra que a questão da segurança é um desafio comum neste setor, não restrita a uma única empresa.

Como a segurança afeta a adoção do modelo R1 da DeepSeek?

As preocupações com a segurança podem impactar a rápida adoção do modelo R1 da DeepSeek, apesar de empresas como AWS e Microsoft terem anunciado a integração do modelo em suas plataformas. Há uma crescente onda de organizações, incluindo o Pentágono e a Marinha dos EUA, que começaram a proibir o uso da DeepSeek. Esses fatores levantam questões sobre a viabilidade e a aceitação do modelo no mercado.

Qual é a perspectiva de Dario Amodei sobre a competição com a DeepSeek?

Dario Amodei reconhece a DeepSeek como um concorrente significativo no setor de IA, juntando-se a empresas líderes como Anthropic, OpenAI, Google, entre outras. Ele configurou essa nova competição como um acontecimento notável, indicando que a presença da DeepSeek pode alterar o equilíbrio no campo de IA. A principal preocupação reside em como isso afetará a segurança e a inovação tecnológicas no futuro.

Qual foi a resposta da Anthropic e da DeepSeek após as preocupações levantadas?

Após as preocupações levantadas, a Anthropic não respondeu imediatamente aos pedidos de comentários, assim como a DeepSeek. Essa falta de resposta pode indicar uma necessidade de refletir sobre as implicações das falhas de segurança detectadas e a urgência em abordar as questões que foram levantadas por Amodei e outras fontes.

Com informações: TechCrunch

Veja também: Debates sobre a definição de Código Aberto e suas implicações

Compartilhar.
Exit mobile version