Economize: canal oficial do CT Ofertas no WhatsApp Entrar

GitHub lança sistema que encontra brechas em códigos automaticamente

Por| Editado por Claudio Yuge | 18 de Fevereiro de 2022 às 14h20

Divulgação/GitHub
Divulgação/GitHub
Continua após a publicidade

O GitHub, um dos principais repositórios de programação do mundo, lançou nesta semana uma ferramenta que usa inteligência artificial para analisar códigos publicados em busca de vulnerabilidades de segurança. O sistema está no ar em formato experimental e deve ajudar programadores a encontrarem problemas antes de postarem seus trabalhos para toda a comunidade.

De acordo com a plataforma, o recurso fica disponível para dados públicos em repositórios de softwares baseados em JavaScript e TypeScript. Neles, quatro tipos de brechas mais comuns serão analisadas, como injeções path, SQL e NoSQL, além de cross-site scripting. A ideia é que os desenvolvedores responsáveis sejam alertados sobre as vulnerabilidades e possam agir para as corrigir.

A ferramenta de análise automatizada é baseada em machine learning e vai conversar com bancos de dados de vulnerabilidades comuns, justamente, para que elas sejam indicadas nos códigos publicados na plataforma. Segundo o GitHub, nas etapas de testes que vêm acontecendo desde meados de 2020, mais de 12 mil repositórios foram escaneados, com mais de 20 mil problemas de segurança sendo encontrados e indicados aos produtores de software.

GitHub lança sistema que encontra brechas em códigos automaticamente
Mais de 20 mil falhas foram localizadas durante os testes de ferramenta de análise de códigos do GitHub, que é pública e gratuita para os desenvolvedores da plataforma (Imagem: Divulgação/GitHub)

Mesmo que ainda esteja em etapa experimental, o recurso fica agora disponível de forma gratuita a mais desenvolvedores, tanto nos repositórios públicos quanto em sistemas corporativos, focados para a produção interna de soluções empresariais. Segundo a plataforma, a ferramenta também pode ser integrada a outros sistemas de testes e controle de qualidade.

Desde já, porém, o GitHub alerta para a possibilidade de falsos positivos que podem surgir com essa disponibilização pública. A ideia é que, como em todo sistema de inteligência artificial, os resultados fiquem mais precisos com o passar do tempo, na medida em que os modelos de machine learning vão evoluindo e entendendo as peculiaridades dos softwares analisados.

Fonte: GitHub