Confiança na IA generativa aumenta, mesmo com as vulnerabilidades de segurança
Por Nathan Vieira • Editado por Melissa Cruz Cossetti |

A confiança na IA generativa está em alta em todo o mundo, mesmo diante das preocupações crescentes com segurança, ética e governança. Um novo estudo global da IDC (International Data Corporation), encomendado pelo SAS, mostra que as organizações continuam apostando na IA como motor de inovação e produtividade, mas nem sempre com as proteções necessárias para garantir sua confiabilidade.
- "Você está me testando" | Novo modelo de IA da Anthropic detecta a sua intenção
- Britânicos veem a IA mais como um risco para a economia do que como oportunidade
De acordo com o relatório, os líderes de TI e negócios confiam mais na IA generativa do que em qualquer outra forma de inteligência artificial. Quase metade dos entrevistados (48%) afirmou ter “confiança total” nessa tecnologia, enquanto apenas 18% disseram o mesmo sobre a IA tradicional, baseada em aprendizado de máquina.
A pesquisa, realizada com 2.375 profissionais em mais de 20 países, revelou que, quanto menor o investimento em mecanismos de segurança e governança da IA, maior a percepção de confiança na IA generativa. Ou seja, a familiaridade e a interação “quase humana” desses sistemas parecem inspirar mais credibilidade do que sua confiabilidade técnica real.
Como destaca Kathy Lange, diretora de pesquisa de IA e Automação da IDC, a pesquisa mostra uma contradição: "as formas de IA com interatividade semelhante à humana e familiaridade social parecem inspirar mais confiança, independentemente da confiabilidade ou precisão reais”.
Falta de governança ameaça
Embora 78% das organizações afirmem confiar plenamente na IA, apenas 40% estão investindo em práticas para torná-la realmente confiável, como governança, explicabilidade e segurança ética. Isso representa uma lacuna significativa entre percepção e realidade.
As empresas que adotam estruturas de governança de IA e práticas responsáveis, segundo o estudo, têm 60% mais chances de dobrar o ROI (retorno sobre o investimento) dos seus projetos. Por outro lado, a ausência de políticas claras de IA responsável pode comprometer os resultados e a reputação das organizações no longo prazo.
Apenas 2% das empresas entrevistadas apontaram o desenvolvimento de uma estrutura de governança como prioridade, e menos de 10% estão criando políticas de IA responsável.
Base de dados
Outro ponto crítico identificado pela IDC é a base de dados. A qualidade, diversidade e governança dos dados são determinantes para o sucesso das iniciativas de IA. No entanto, 49% das empresas citaram infraestrutura de dados deficiente como o principal obstáculo, seguidas pela falta de governança (44%) e pela escassez de profissionais qualificados (41%).
A dificuldade de acesso a fontes de dados relevantes (58%) e a preocupação com privacidade e conformidade (49%) também aparecem entre os maiores desafios destacados pelo relatório sobre confiança na IA generativa.
Leia também:
- ComplexChaos | Startup acredita que a IA pode ajudar as pessoas a se entenderem
- IA com excesso de confiança não consegue identificar os próprios erros
VÍDEO | Por que tudo agora tem Inteligência Artificial gratuita?
Fonte: SAS