Anunciamos uma nova parceria com a Proofig! Saiba mais

Declaração sobre o decreto executivo de Biden sobre segurança da IA

Max Spero
31 de outubro de 2023

NOTA: Mudámos o nosso nome para Pangram Labs! Consulte a publicação no nosso blogue para obter mais detalhes.

Hoje, a administração Biden emitiu novas normas para a segurança e proteção da IA, incluindo esta diretiva sobre deteção de conteúdo de IA:

O Departamento de Comércio desenvolverá orientações para autenticação de conteúdo e marca d'água para identificar claramente o conteúdo gerado por IA. As agências federais usarão essas ferramentas para facilitar aos americanos saber que as comunicações que recebem do governo são autênticas — e dar o exemplo para o setor privado e governos em todo o mundo.

Joe Biden, de ai.gov.

A Checkfor.ai apoia totalmente o compromisso da administração Biden com a implementação segura e responsável de grandes modelos de linguagem. Acreditamos que o desenvolvimento de diretrizes e políticas em torno da autenticação de conteúdo de IA é um passo importante na direção certa para a segurança da IA e está alinhado com a nossa missão de proteger a Internet contra spam e outros conteúdos maliciosos gerados por grandes modelos de linguagem. O mundo ficará melhor, tanto para os consumidores como para os utilizadores da tecnologia de IA, se nós, como sociedade, investirmos mais na deteção de conteúdo gerado por IA. Hoje, gostaríamos de divulgar uma declaração sobre a nossa posição como empresa em relação à autenticação, marca d'água e deteção de conteúdo.

  • Acreditamos que nenhuma solução de detecção atual é suficiente para resolver o problema neste momento, e devemos investir mais recursos na resolução específica da detecção de IA.
  • Acreditamos que a marca d'água não é a solução para esse problema, pois promove uma falsa sensação de segurança e tem limitações comprovadas quando um utilizador tem acesso aos pesos do modelo ou capacidade de editar a saída (https://arxiv.org/pdf/2305.03807.pdf, https://arxiv.org/pdf/2301.10226.pdf). Já existem modelos de código aberto poderosos e capazes sem marca d'água, e os malfeitores sempre serão capazes de ajustar localmente as suas próprias versões desses modelos para evitar a detecção. Além disso, acreditamos que o problema da detecção é solucionável mesmo em modelos sem marca d'água.
  • Apoiamos a regulamentação sobre segurança da IA e desenvolvimento de grandes modelos de linguagem, com a disposição fundamental de que toda a regulamentação deve apoiar o ecossistema de código aberto. O código aberto proporciona equilíbrio e controlo sobre as grandes empresas tecnológicas poderosas, transparência para os consumidores e permite ao público avaliar, criticar e comparar livremente esses modelos.
  • Acreditamos que o papel do governo na promoção da segurança da IA e no investimento em pesquisas de detecção de IA deve se concentrar no financiamento de projetos acadêmicos e industriais nessa área.
  • Para promover pesquisas eficazes na deteção de IA, devemos estabelecer referências e critérios de avaliação, de modo que os consumidores possam estar cientes da eficácia e das limitações dos detetores de IA disponíveis. Estamos empenhados em desenvolver e contribuir para padrões em toda a indústria na deteção de IA, para que modelos de linguagem maiores e mais poderosos possam ser implementados de forma segura e responsável.

Na Checkfor.ai, estamos a trabalhar arduamente para construir sistemas de deteção de IA confiáveis, para que os modelos de linguagem da próxima geração possam ser implementados com segurança e produtividade. Estamos entusiasmados com o compromisso da administração Biden em diferenciar o conteúdo gerado por humanos e por IA e ansiosos por trabalhar com investigadores e decisores políticos para desenvolver esses importantes padrões.

Inscreva-se na nossa newsletter
Partilhamos atualizações mensais sobre a nossa investigação em deteção de IA.