Google usará "deep learning" para aumentar precisão do Tradutor

Por Redação | 11 de Março de 2016 às 10h09

Diversos dos produtos do Google já se beneficiaram do padrão de aprendizado para máquinas denominado de “deep learning”. Trata-se, basicamente, de fornecer volumes monstruosos de dados como amostragem a fim de tornar o comportamento de redes neurais sintéticas cada vez mais assertivo. E, bem, depois do Google Maps, do Google Photos e do Gmail, há agora um novo candidato escolhido para o “superintensivo” de Mountain View: o Google Tradutor (Translate).

A novidade veio em uma entrevista concedida por Jeff Dean durante a última edição da conferência Structure Data, realizada San Francisco, na Califórnia (EUA). Na ocasião, o cabeça da divisão conhecida como Google Brain afirmou que sua equipe trabalha atualmente em conjunto com os responsáveis pelo tradutor instantâneo a fim de “dimensionar experimentos com tradução baseada no deep learning”. Particularmente, o esforço colaborativo tem se baseado no trabalho científico intitulado “Sequence to Sequence Learning with Neural Networks”, lançado em 2014.

Método já é utilizado no tradutor visual

Na verdade, há pelo menos uma parte do Google Tradutor que já faz utilização do deep learning: a tradução visual instantânea – posta em funcionamento quando você foca a câmera do seu celular em palavras que pretende traduzir. Entretanto, como qualquer um que utiliza constantemente deve saber, o tradutor padrão da companhia ainda tem uma longa jornada para chegar aos 100% de precisão.

jeff dean

Dessa forma, a ideia agora é realmente focar nos mecanismos básicos da ferramenta. “Eu acredito que nós teremos alguns resultados muito em breve”, disse Dean em entrevista a Tom Simonite, do MIT Technology Review, durante a referida conferência.

Arquitetura neural recursiva

O pesquisador garantiu aos presentes que a ideia é tornar o mecanismo mais preciso, tornando o seu funcionamento mais puramente baseado nas redes neurais descritas no “Sequence to Sequence Learning with Neural Networks” – tendo como um dos focos o chamado “long short-term memory network” (LSTM), um modelo de arquitetura neural recursivo (imagem abaixo).

lstm

De qualquer forma, por mais inquestionável que seja o pioneirismo do Google em diversas áreas, há atualmente outras empresas na mesma corrida para levar o deep learning para mecanismos de tradução automática - como é o caso da Microsoft e da Baidu, por exemplo. Enfim, será o primeiro passo para a aposentadoria compulsória de intérpretes e dicionários de bolso? É esperar para ver.

Via Venture Beat