A inteligência artificial é uma das tecnologias mais inovadoras e revolucionárias da atualidade. No entanto, como em todas as tecnologias, a segurança é um fator crucial para garantir a sua utilização adequada e minimizar possíveis impactos negativos. É por isso que a Anthropic, Google, Microsoft e Open AI se uniram para criar o Frontier Model Forum, um fórum que visa promover o desenvolvimento seguro da inteligência artificial.
O Frontier Model Forum tem como objetivo estabelecer um comité consultivo, uma carta de compromisso, financiamento e concentra-se em investigação sobre segurança da inteligência Artificial, melhores práticas e o trabalho próximo com políticos, académicos, sociedade civil e outras empresas para garantir o seu desenvolvimento seguro. Os membros deste fórum serão selecionados com base em qualidade e compromisso em tornar os seus modelos seguros para o uso, tornando assim a segurança da IA uma prioridade.
O Frontier Model Forum estabeleceu os pilares centrais que pretende focar em promover a pesquisa de segurança da IA, determinar as melhores práticas, trabalhar em estreita colaboração com formuladores de políticas, acadêmicos, sociedade civil e empresas e incentivar esforços para construir uma IA que “pode ajudar a enfrentar os maiores desafios da sociedade”.
A criação do Frontier Model Forum é uma iniciativa com grande impacto na indústria de tecnologia. Ela surge na sequência de um acordo recente de segurança assinado entre a Casa Branca e as principais empresas do setor de inteligência artificial. Este acordo prevê a aplicação de medidas de segurança, como a realização de testes de comportamento por especialistas externos e a aplicação de uma marca de água nos conteúdos produzidos por inteligência artificial.
Atualmente, a indústria de inteligência artificial ainda carece de uma regulamentação específica e completa para garantir a segurança e o uso adequado dessas tecnologias. Embora muitas empresas estejam preocupadas com a segurança, nem todas têm a mesma habilidade, recursos ou entendimento sobre como estabelecer critérios de segurança ou boas práticas. O surgimento do Frontier Model Forum, portanto, é uma iniciativa única e vital para ajudar a construir uma estrutura de segurança abrangente para esta indústria.
As medidas de segurança comprometidas incluíam testes de mau comportamento por especialistas externos e a colocação de uma marca d’água no conteúdo criado pela IA.











