Para CEO da Tesla, superinteligência pode ser mais perigosa que bombas atômicas

Por Redação | 04 de Agosto de 2014 às 15h40
photo_camera Divulgação

O empreendedor Elon Musk, que ajudou na criação de empresas como SpaceX e Tesla, afirmou em seu Twitter no sábado (02) que considera a inteligência artificial “potencialmente mais perigosa que bombas atômicas”. No tuíte, Musk pede para que as pessoas sejam supercuidadosas com ela.

elon musk twitter

A frase, um tanto pessimista, foi postada após Musk ler o livro “Superintelligence”, de Nick Bostrom. O livro, que ainda não possui tradução para o português, cita a criação de uma inteligência de máquina (artificial general intelligence ou AGI) que é capaz de rivalizar com o cérebro humano e afetar o destino da humanidade.

O autor do livro, Nick Bostrom, é o fundador do Instituto para o Futuro da Humanidade da universidade britânica de Oxford. O instituto atua em parceria com o Centro de Estudos de Riscos Existenciais da Universidade de Cambridge para entender como inteligência artificial, nanotecnologia, robôs e inovações tecnológicas podem colocar em risco a humanidade no futuro.

Bostrom já afirmou que a humanidade tem uma vantagem nessa disputa, pois foi ela que fez os primeiros movimentos. Ele ainda acredita que os riscos oferecidos por inteligência artificial são baixos para os humanos e destaca que apenas as pessoas poderão programar como essa inteligência irá funcionar e dotá-la de senso de ética e moralidade. Para ele, os desenvolvedores podem implantar salvaguardas, como as três leis da robótica de Isaac Asimov.

Musk, no entanto, não parece muito confiante sobre a humanidade ser capaz de colocar as salvaguardas adequadas. Em um segundo tuíte, no domingo (03), ele disse que esperava que as pessoas não fossem apenas um caminho para a superinteligência digital e afirmou que isso está cada vez mais provável.

elon musk twitter2

Para o site Extreme Tech, que publicou a notícia, Musk pode estar subestimando a humanidade com uma visão negativa do que as pessoas são capazes. Cita como exemplo a era atômica, em que países possuem poderio militar para destruir completamente outras nações, mas em 60 anos apenas duas bombas foram usadas. O poder termonuclear, por exemplo, nunca foi usado para fins militares e cada vez menos acredita-se que esse fim seja provável.

Sendo assim, é possível que ocorra o desenvolvimento de super inteligência, mas dificilmente de uma forma que coloque em risco o futuro da humanidade. É também necessário pensar que a criação deste tipo de inteligência requer investimentos e conhecimentos interdisciplinares, sendo difícil que uma pessoa com a intenção de destruição tenha condições de desenvolver este tipo de inovação sem a descoberta dos governos.

Musk pode ser o primeiro a seguir suas próprias palavras, no ano passado ele afirmou que a Tesla será a primeira a colocar carros de autocondução nas ruas. Este tipo de tarefa exige uma inteligência artificial bastante desenvolvida, portanto a empresa pode dar passos importantes nessa direção sob o comando de Musk.

Fonte: http://www.extremetech.com/extreme/187467-elon-musk-warns-us-that-human-level-ai-is-more-dangerous-than-nukeshttp://exame.abril.com.br/tecnologia/noticias/a-inteligencia-artificial-e-superperigosa-diz-elon-musk

Canaltech no Facebook

Mais de 370K likes. Curta nossa página você!