Google usará "deep learning" para aumentar precisão do Tradutor
Por Carlos Dias Ferreira | 11 de Março de 2016 às 10h09
Diversos dos produtos do Google já se beneficiaram do padrão de aprendizado para máquinas denominado de “deep learning”. Trata-se, basicamente, de fornecer volumes monstruosos de dados como amostragem a fim de tornar o comportamento de redes neurais sintéticas cada vez mais assertivo. E, bem, depois do Google Maps, do Google Photos e do Gmail, há agora um novo candidato escolhido para o “superintensivo” de Mountain View: o Google Tradutor (Translate).
A novidade veio em uma entrevista concedida por Jeff Dean durante a última edição da conferência Structure Data, realizada San Francisco, na Califórnia (EUA). Na ocasião, o cabeça da divisão conhecida como Google Brain afirmou que sua equipe trabalha atualmente em conjunto com os responsáveis pelo tradutor instantâneo a fim de “dimensionar experimentos com tradução baseada no deep learning”. Particularmente, o esforço colaborativo tem se baseado no trabalho científico intitulado “Sequence to Sequence Learning with Neural Networks”, lançado em 2014.
Método já é utilizado no tradutor visual
Na verdade, há pelo menos uma parte do Google Tradutor que já faz utilização do deep learning: a tradução visual instantânea – posta em funcionamento quando você foca a câmera do seu celular em palavras que pretende traduzir. Entretanto, como qualquer um que utiliza constantemente deve saber, o tradutor padrão da companhia ainda tem uma longa jornada para chegar aos 100% de precisão.
Dessa forma, a ideia agora é realmente focar nos mecanismos básicos da ferramenta. “Eu acredito que nós teremos alguns resultados muito em breve”, disse Dean em entrevista a Tom Simonite, do MIT Technology Review, durante a referida conferência.
Arquitetura neural recursiva
O pesquisador garantiu aos presentes que a ideia é tornar o mecanismo mais preciso, tornando o seu funcionamento mais puramente baseado nas redes neurais descritas no “Sequence to Sequence Learning with Neural Networks” – tendo como um dos focos o chamado “long short-term memory network” (LSTM), um modelo de arquitetura neural recursivo (imagem abaixo).
De qualquer forma, por mais inquestionável que seja o pioneirismo do Google em diversas áreas, há atualmente outras empresas na mesma corrida para levar o deep learning para mecanismos de tradução automática - como é o caso da Microsoft e da Baidu, por exemplo. Enfim, será o primeiro passo para a aposentadoria compulsória de intérpretes e dicionários de bolso? É esperar para ver.
Fonte: Venture Beat