Na semana passada, a Tesla mostrou ao mundo a sua nova estratégia de mobilidade, assente em dois veículos autónomos; o cybercab e o Cyberbus. Nesta apresentação, estiveram também vários robots Optimus, um modelo que já “trabalha” nas fábricas da marca.
Estes modelos surpreenderam os convidados ao interagir de forma muito natural, com conversas fluidas sobre vários temas, a jogar papel, pedra e tesoura ou mesmo a servir bebidas no bar do evento.
Contudo, nem tudo era o que aparentava: afinal, eram controlados à distância por funcionários da Tesla, no que respeita à voz – ou seja, eram operadores que falavam com os convidados e não uma voz baseada em IA, como, por exemplo, acontece com o ChatGPT.
A revelação foi feita por Adam Jonas, analista da financeira Morgan Stanley: «Os robots dependiam de tele-operações (intervenção humana)». No local, houve várias pessoas a terem esta ideia, uma vez que os autómatos tinham todos vozes diferentes.
Numa conversa com um destes robots, um dos convidados do evento da Tesla (We, Robot), confirmou que este lhe tinha dito estar a ser «assistido por um humano» e que não era «totalmente autónomo». Outro confidenciou que era apenas «um pouco» controlado por IA – neste caso, o movimento.
Os vídeos de pessoas a interagir com os Optimus, nesta apresentação da Tesla, acabaram por ficar virais nas redes sociais, devido à fluidez de discurso apresentado pelo robots e na forma de interacção quase humana que demonstraram – agora, sabe-se porquê.