Em uma postagem em seu blog pessoal, o CEO da OpenAI, Sam Altman, afirmou acreditar que a empresa já sabe como desenvolver inteligência artificial geral (AGI) conforme tradicionalmente definida e está começando a direcionar esforços para a “superinteligência”.
“Amamos nossos produtos atuais, mas estamos aqui pelo futuro glorioso”, escreveu Altman. “Ferramentas superinteligentes poderiam acelerar enormemente descobertas científicas e inovações, indo muito além do que somos capazes de fazer sozinhos, aumentando, por sua vez, a prosperidade e a abundância.”
Altman já declarou que a superinteligência pode estar a apenas “alguns milhares de dias” de distância, e que sua chegada será “mais intensa do que as pessoas imaginam”.
A AGI, ou inteligência artificial geral, é um termo amplo, mas a OpenAI a define como “sistemas altamente autônomos que superam os humanos na maioria dos trabalhos economicamente valiosos”. Já a definição de AGI segundo a OpenAI e a Microsoft, parceira e investidora da empresa, envolve sistemas que podem gerar ao menos US$ 100 bilhões em lucros. Quando a OpenAI atingir esse marco, a Microsoft perderá o acesso à tecnologia, de acordo com o contrato entre as empresas.
Embora Altman não tenha especificado qual definição de superinteligência ele estava usando, parece mais provável que seja a primeira. Ele escreveu que acredita que agentes de IA — sistemas que realizam tarefas de forma autônoma — possam “se juntar à força de trabalho” e “alterar significativamente a produção das empresas” ainda este ano.
“Continuamos acreditando que colocar grandes ferramentas iterativamente nas mãos das pessoas leva a resultados grandiosos e amplamente distribuídos”, afirmou Altman.
No entanto, a tecnologia de IA atual ainda tem muitas limitações, incluindo erros óbvios e custos elevados, além de gerar respostas inconsistentes, conhecidas como “alucinações”.
Altman permanece confiante de que esses desafios podem ser superados rapidamente. Ainda assim, ele reconhece que os prazos para avanços em IA podem mudar.
“Estamos bastante confiantes de que, nos próximos anos, todos verão o que vemos: a necessidade de agir com grande cuidado enquanto maximizamos os benefícios amplos e o empoderamento é crucial”, escreveu Altman. “Dado o potencial do nosso trabalho, a OpenAI não pode ser uma empresa comum. É uma sorte e uma grande responsabilidade poder desempenhar um papel nesse trabalho.”
À medida que a OpenAI direciona seu foco para a superinteligência, espera-se que a empresa destine recursos suficientes para garantir que esses sistemas superinteligentes operem de forma segura.
A OpenAI já reconheceu que a transição para um mundo com superinteligência está “longe de ser garantida” e admitiu não ter soluções completas para controlar ou impedir que uma IA superinteligente saia do controle. Em uma postagem de julho de 2023, a empresa afirmou: “[N]ão temos uma solução para direcionar ou controlar uma IA potencialmente superinteligente e impedir que ela aja de forma independente. [H]umanos não serão capazes de supervisionar confiavelmente sistemas de IA muito mais inteligentes do que nós, e nossas técnicas atuais de alinhamento não serão escaláveis para a superinteligência.”
Apesar dessas preocupações, desde então, a OpenAI desmantelou equipes focadas em segurança de sistemas superinteligentes e perdeu vários pesquisadores influentes nessa área. Muitos citaram as crescentes ambições comerciais da empresa como motivo para sua saída. Atualmente, a OpenAI está passando por uma reestruturação corporativa para atrair mais investidores externos.
Altman, em resposta a questionamentos sobre a segurança de suas iniciativas, afirmou: “Nosso histórico mostra nosso compromisso.”
Fonte: TechCrunch
Traduzido via ChatGPT

