Steve Wozniak acha ChatGPT impressionante, mas alerta para "erros horríveis"
Por Alveni Lisboa • Editado por Douglas Ciriaco |
Cofundador da Apple, Steve Wozniak pediu cautela no uso do popular ChatGPT devido ao momento inicial de desenvolvimento da tecnologia. O popular desenvolvedor disse em entrevista ao programa Squawk Box, da rede CNBC, que o chatbot é "bastante impressionante" e tem muita utilidade para os humanos, mas que também tem potencial para cometer erros graves.
- Quem é Samuel Altman, CEO da OpenAI e criador do ChatGPT
- Perplexity Ask | Buscador aposta na IA para desbancar o Google
Em uma analogia, Wozniak disse que a IA lembra muito a preocupação em torno da tecnologia dos carros autônomos. Assim que foram anunciados, muita gente pensou que a inteligência artificial poderia dirigir no lugar dos humanos, mas que isso ainda está longe de ser possível.
"O problema é que ele faz coisas boas para nós, mas pode cometer erros horríveis por não saber o que é ser humano", alertou o especialista.
Ele reforçou que os melhores treinamentos de tecnologias ainda são incapazes de reproduzir o modo de pensar dos humanos. A OpenAI faz questão de reforçar que o ChatGPT não tem capacidade de raciocínio, e sim apenas a habilidade de buscar respostas rapidamente e construí-las de forma simulada.
ChatGPT em meio a polêmicas
Após bater mais de 100 milhões de usuários em dois meses, o ChatGPT tem sido alvo de críticas por setores sociais. Professores e acadêmicos têm se posicionado com ceticismo devido ao uso indevido nas pesquisas científicas. Há também alguns problemas relacionados a direitos autoriais e ao conjunto de respostas erradas dadas pelo algoritmo — que só lida com uma base de informações até 2021.
Fato é que a tecnologia movimentou o setor nos últimos dois meses. A Microsoft firmou uma parceria que rendeu US$ 10 bilhões para os desenvolvedores do ChatGPT, além de permitir a integração ao mecanismo de busca Bing e ao Microsoft 365 (antigo Pacote Office).
O Google também não quer ficar para trás e já anunciou a chegada do Bard. A IA de conversa do Google usa a LaMDA como ponto de partida, mas também deu uma escorregada logo no lançamento, o que provocou desvalorização das ações da empresa no mercado e boa dose de ceticismo com a solução.
Assim como toda tecnologia baseada em IA, o ChatGPT tende a cometer erros que podem provir da sua base de dados ou da interpretação errônea. Além disso, ainda não existe uma solução para a incorporação de preconceitos, racismo, sexismo e outras práticas moralmente condenáveis, mas que acabam sendo portadas da sociedade para o bot.
Fonte: CNBC