Ao navegar neste site, você concorda com nossa Política de Privacidade e nossos Termos de Uso.
Aceitar
Empreenda MSEmpreenda MSEmpreenda MS
  • Empreendedorismo
  • Inovação
  • Desenvolvimento
  • Tecnologia
Pesquisar...
  • Agronegócio
  • Alimentação
  • Artesanato
  • Ciência
  • Comércio
  • Comportamento
  • Cultura
  • Desenvolvimento
  • Economia
  • Educação
  • Empreendedorismo
  • Emprego
  • Entretenimento
  • Esporte
  • Eventos
  • Finanças
  • Games
  • Gastronomia
  • Gestão Pública
  • Infraestrutura
  • Inovação
  • Investimento
  • Lazer
  • Listas
  • Meio Ambiente
  • Negócios
  • Política
  • Programas Habitacionais
  • Recursos Humanos
  • Redes Sociais
  • Saúde
  • Sustentabilidade
  • Tecnologia
  • Transporte
  • Turismo
© 2025 Empreenda MS. Feito orgulhosamente com ❤️ WordPress. Todos os Direitos Reservados.
Lendo: Anthropic lança iniciativa para desenvolver benchmarks abrangentes em IA, focando em segurança e impacto social
Compartilhar
Font ResizerAa
Empreenda MSEmpreenda MS
Font ResizerAa
Pesquisar...
Já tem uma conta? Entrar
Siga-nos
  • Fale Conosco
  • Sobre Nós
  • Privacidade
  • Anuncie
© 2025 Empreenda MS. Feito orgulhosamente com ❤️ WordPress. Todos os Direitos Reservados.
Empreenda MS > Tecnologia > Anthropic lança iniciativa para desenvolver benchmarks abrangentes em IA, focando em segurança e impacto social
Tecnologia

Anthropic lança iniciativa para desenvolver benchmarks abrangentes em IA, focando em segurança e impacto social

André Rocha Publicado em 12/07/2024 2.4k visualizações
Compartilhar
6 minutos de leitura
Anthropic
Compartilhar

A Anthropic lançou um programa ambicioso destinado a financiar o desenvolvimento de novos benchmarks que possam avaliar de forma abrangente o desempenho e o impacto de modelos de IA, incluindo seus próprios modelos generativos como Claude.

O programa, anunciado recentemente, pretende alocar recursos para organizações externas capazes de medir eficazmente as capacidades avançadas desses modelos, focando especialmente em segurança e implicações sociais.

O programa da Anthropic destinará recursos a organizações terceirizadas que possam, conforme descrito no blog da empresa, “medir efetivamente capacidades avançadas em modelos de IA”. As organizações interessadas podem enviar suas candidaturas, que serão avaliadas de forma contínua.

Leita também

Anthropic

O “Exit” do Ano: Brex, fintech fundada por brasileiros, é vendida por US$ 5,15 bilhões para a gigante Capital One

O Futuro da Inovação em MS: Nova Estratégia Nacional de CT&I Define Prioridades até 2034
Alerta no Vale do Silício: Peter Thiel Zera Posição na Nvidia e Acende a Luz Vermelha Sobre o ‘Hype’ da IA
Preservar e Crescer: Mato Grosso do Sul Leva Modelo de Desenvolvimento Sustentável à COP30
O PIX como Estudo de Caso Global: A Batalha Geopolítica e a Revolução da Inovação Pública

“O nosso investimento nestas avaliações tem como objetivo elevar todo o campo da segurança em IA, proporcionando ferramentas valiosas que beneficiem todo o ecossistema”, escreveu a Anthropic em seu blog oficial. “Desenvolver avaliações de alta qualidade e relevantes para a segurança continua a ser um desafio, e a demanda está superando a oferta.”

Como já destacado anteriormente, a IA enfrenta um problema de benchmarking. Os benchmarks mais citados atualmente fazem um péssimo trabalho em capturar como o usuário comum realmente utiliza os sistemas testados. Além disso, há dúvidas sobre se alguns benchmarks, especialmente aqueles lançados antes do surgimento da IA generativa moderna, realmente medem o que se propõem a medir, dado o seu tempo de criação.

A solução proposta pela Anthropic é criar benchmarks desafiadores com foco na segurança da IA e nas implicações sociais, utilizando novas ferramentas, infraestrutura e métodos. A empresa pede especificamente por testes que avaliem a capacidade de um modelo para realizar tarefas como ataques cibernéticos, “aprimorar” armas de destruição em massa (como armas nucleares) e manipular ou enganar pessoas (através de deepfakes ou desinformação). Para riscos de IA relacionados à segurança nacional e defesa, a Anthropic está comprometida em desenvolver uma espécie de “sistema de alerta precoce” para identificar e avaliar riscos, embora não revele no blog como esse sistema funcionará.

Além disso, a Anthropic pretende que seu novo programa apoie pesquisas em benchmarks e tarefas “end-to-end” que investiguem o potencial da IA para auxiliar em estudos científicos, conversar em múltiplos idiomas, mitigar preconceitos enraizados e auto-censurar toxicidades. Para atingir esses objetivos, a empresa imagina novas plataformas que permitam a especialistas desenvolver suas próprias avaliações e testes em larga escala envolvendo “milhares” de usuários.

A empresa afirma ter contratado um coordenador em tempo integral para o programa e que pode adquirir ou expandir projetos que acredita terem potencial para escalar.

“Oferecemos uma variedade de opções de financiamento adaptadas às necessidades e estágio de cada projeto”, escreve a Anthropic no post, embora um porta-voz da empresa tenha se recusado a fornecer mais detalhes sobre essas opções. “As equipes terão a oportunidade de interagir diretamente com os especialistas da Anthropic em áreas como red team, ajuste fino, confiança e segurança, e outras equipes relevantes.”

O esforço da Anthropic para apoiar novos benchmarks de IA é louvável — assumindo, claro, que haja dinheiro e mão de obra suficientes por trás disso. Mas, dada a ambição comercial da empresa na corrida pela IA, pode ser difícil confiar completamente nesse esforço.

No blog, a Anthropic é bastante transparente ao afirmar que deseja que certas avaliações que financia estejam alinhadas com as classificações de segurança em IA que desenvolveu (com alguma contribuição de terceiros, como a organização de pesquisa em IA sem fins lucrativos METR). Isso está bem dentro da prerrogativa da empresa. Mas também pode forçar os candidatos ao programa a aceitarem definições de IA “segura” ou “arriscada” com as quais possam não concordar.

Uma parte da comunidade de IA provavelmente também questionará as referências da Anthropic a riscos de IA “catastróficos” e “enganosos”, como os riscos de armas nucleares. Muitos especialistas dizem que há pouca evidência para sugerir que a IA, como a conhecemos, ganhará capacidades de superinteligência destrutivas em breve, se é que algum dia o fará. Afirmar que a superinteligência está iminente serve apenas para desviar a atenção das questões regulatórias urgentes da IA atualmente, como as tendências alucinatórias da IA, acrescentam esses especialistas.

Em seu post, a Anthropic escreve que espera que seu programa sirva como “um catalisador para o progresso em direção a um futuro onde a avaliação abrangente de IA seja um padrão da indústria”. Essa é uma missão que muitos esforços abertos e não afiliados a corporações para criar melhores benchmarks de IA podem identificar-se. Mas resta saber se esses esforços estarão dispostos a unir forças com um fornecedor de IA cuja lealdade, em última análise, reside nos acionistas.

Esta iniciativa da Anthropic visa preencher lacunas críticas na avaliação de IA, destacando a importância de benchmarks relevantes e eficazes para garantir a segurança e a responsabilidade na aplicação de tecnologias avançadas.

Com um foco renovado em segurança e impacto social, a Anthropic busca elevar os padrões da indústria, proporcionando uma estrutura mais robusta e confiável para medir o desempenho dos modelos de IA em cenários do mundo real.

Você também pode gostar

Anthropic
De “Incrível” a “Insuportável”: O Fenômeno da Enshittification Explicado no Web Summit
Anthropic
Segurança Reforçada: Banco Central promove regras mais rígidas contra ciberataques no Setor Financeiro
Anthropic
Governadores do Codesul avançam em ações integradas de segurança e monitoramento climático
ASSUNTOS:DeepfakesInteligência ArtificialSegurança
Compartilhar este artigo
Facebook WhatsApp WhatsApp LinkedIn Telegram Threads Link

Continue Conectado

FacebookCurtir
InstagramSeguir
LinkedInSeguir
ThreadsSeguir
- Anúncio -
Ad imageAd image

Artigos Recentes

Anthropic
A Nova Fronteira do Campo: Pavilhão Tech na Expogrande 2026 une agronegócio, biometria animal e inteligência de dados em Campo Grande
13/04/2026 Empreendedorismo
Anthropic
Governança Ambiental Estruturada: MS cria Centro Estadual integrando Educação e Meio Ambiente para unificar a agenda de sustentabilidade
06/04/2026 Empreendedorismo
Dia do Corre
Dia do Corre reforça cultura de bem-estar e mobiliza corredores em Campo Grande
03/04/2026 Eventos Saúde
Anthropic
Termômetro Econômico: Mato Grosso do Sul quebra recorde histórico com 700 mil empregos formais puxado por serviços e megaprojetos industriais
01/04/2026 Empreendedorismo

Artigos Relacionados:

EXPOGRANDE: Iagro destaca avanços na fiscalização sanitária com tecnologias digitais

08/04/2025
Anthropic

Mato Grosso do Sul se consolida como potência em bioenergia com produção recorde de biometano

02/04/2025
Anthropic

Startup aposta em realidade virtual para inovar terapias para autismo

18/03/2025
Anthropic

Rivian aposta no SXSW para desafiar Tesla em seu próprio território

10/03/2025
//

O primeiro portal de empreendedorismo e inovação de Mato Grosso do Sul, oferecendo conteúdo para inspirar empreendedores.

Links Úteis

  • Privacidade
  • Termos de Uso
  • Fale Conosco
  • Anuncie Aqui!CONFIRA!

Principais Tópicos

  • Desenvolvimento
  • Empreendedorismo
  • Inovação
  • Tecnologia
Empreenda MSEmpreenda MS
Siga-nos
© 2024 Empreenda CG. Feito orgulhosamente com ❤️ WordPress. Todos os Direitos Reservados.
É bom ter você de volta!

Faça login na sua conta