A OpenAI está a formar uma nova equipa liderada por Ilya Sutskever, o seu cientista-chefe e um dos cofundadores da empresa, para desenvolver formas de orientar e controlar sistemas de IA “superinteligentes”. A notícia está no TechCrunch.
Sutskever e Jan Leike, líderes da equipa de conteúdos da OpenAI, preveem que a IA com inteligência superior à dos humanos pode chegar dentro de uma década. “Essa IA não será necessariamente benevolente, exigindo pesquisas sobre maneiras de controlá-la e restringi-la”, dizem Sutskever e Leike na notícia.
“Atualmente, não temos uma solução para direcionar ou controlar uma IA potencialmente superinteligente e impedir que ela se torne desonesta”, escrevem. As técnicas atuais para alinhar a IA dependem da capacidade dos humanos de a supervisionar a IA. Mas não serão capazes de o fazer com sistemas muito mais inteligentes que os humanos.
Para avançar na área de “alinhamento de superinteligência”, a OpenAI está a criar uma equipa de superalinhamento, liderada por Sutskever e Leike, que terá acesso a 20% da computação que a empresa garantiu até ao momento. Juntamente com cientistas e engenheiros da divisão de alinhamento anterior da OpenAI, bem como investigadores de outras organizações da empresa, a equipa terá como objetivo resolver os principais desafios técnicos do controlo de IA superinteligente nos próximos quatro anos.
Para o conseguir vai ser construído o que Sutskever e Leike descrevem como um “pesquisador de alinhamento automatizado em nível humano”. O objetivo passa por treinar sistemas de IA usando feedback humano e treinar IA para auxiliar na avaliação de outros sistemas de IA. Leike e Schulman reconhecem as muitas limitações que ainda existem no OpenAI.
“O alinhamento da superinteligência é fundamentalmente um problema de aprendizado de máquina, e acreditamos que grandes especialistas nessa área, mesmo que ainda não estejam a trabalhar no alinhamento, serão essenciais para resolvê-lo”, concluem.