Robô humanoide da OpenAI agora atende por voz em grupo; veja vídeo!

Tecnologia

O Eve, robô humanoide da empresa de robótica 1X, parceira da OpenAI, acaba de receber um novo recurso baseado em uma interface de linguagem natural que ampliou o entendimento do dispositivo em grupo. Conforme divulgado pela New Atlas, o protótipo agora realiza tarefas simples a partir de novos comandos de voz, e apenas uma ordem pode ativar todos os robôs (ligados pelo mesmo sistema neural). 

Segundo vídeo divulgado pela empresa, eles entendem e se dividem em uma força tarefa da limpeza após o comando, enquanto um limpa respingos em uma mesa, outro pegar roupas do chão e um terceiro até buscar água. Veja mais abaixo! 

Leia mais! 

O que você precisa saber: 

  • A 1X, antes Halodi Robotics, fechou uma parceria com OpenAI “para combinar robótica e IA e estabelecer as bases para a aprendizagem incorporada” em 2022; 
  • Desde então, as companhias vêm desenvolvendo o Eve, que já era um protótipo da empresa enquanto Halodi; 
  • Segundo a 1X, uma nova interface de linguagem natural que permite a um operador controlar vários humanoides usando comandos de voz foi criada para o Eve, com o ajudante robô reunindo um monte de ações aprendidas para completar tarefas complexas; 
  • O objetivo é que o protótipo seja útil principalmente no local de trabalho, onde os bots irão “entender tanto a linguagem natural quanto espaço físico, para que possam realizar tarefas reais em todo o seu local de trabalho e no seu mundo”; 
  • Vale lembrar que o modelo já consegue tirar itens de uma sacola de compras e decidir onde colocá-los, limpar respingos de outras superfícies e dobrar roupas. 

Confira abaixo o vídeo: 

Dirigir robôs com esta interface de linguagem de alto nível oferece uma nova experiência de usuário para coleta de dados. Em vez de usar VR para controlar um único robô, um operador pode dirigir vários robôs com linguagem de alto nível e permitir que as políticas de baixo nível executem ações de baixo nível para atingir esses objetivos de alto nível. Porque as ações de alto nível são enviadas raramente, os operadores podem até controlar robôs remotamente.

Eric Jang, da 1X, em postagem no blog da empresa.

A 1X pontuou que os humanoides Eve no vídeo acima não são teleoperados, com todas as ações controladas por uma rede neural — o que eles consideraram mais simples que aumentar a contagem de parâmetros às custas de maior tempo de treinamento e desenvolvimento mais lento.  

Também não há gráficos gerados por computador, nem “cortes, acelerações de vídeo ou reprodução de trajetória com script“. Empolgados, o próximo passo será integrar modelos de linguagem de visão como GPT-4o, VILA e Gemini Vision ao sistema.