ANUNCIE AQUI
O avanço da inteligência artificial generativa ampliou a pressão sobre empresas para acelerar projetos digitais, mas acelerou também a exposição de riscos de segurança, vieses sistêmicos e responsabilidades legais ainda pouco compreendidas. Esse foi o centro do painel "IA com propósito: segurança e consciência digital", realizado no Telium SecDay e mediado por Ricardo Brasil, diretor de TI da GWS Engenharia. Participaram Júlio Cataldo, gerente de DevSecOps da EXA; Miller Augusto, presidente do Grupo Ivy S/A; e Ronaldo Andrade, CEO da mesma companhia.
Os executivos defenderam que a adoção corporativa de IA precisa evoluir com controles técnicos, culturais e regulatórios, especialmente diante de fragilidades que ainda passam despercebidas no ambiente empresarial.
Júlio Cataldo apresentou casos práticos de vulnerabilidades detectadas em produtos baseados em modelos generativos. Segundo ele, avaliações internas mostraram que, mesmo com guardrails aplicados, ainda há risco de exploração. "Nos testes internos, exploramos prompt injection e prompt leaking e encontramos fragilidades nos guardrails. A IA trouxe dados que não devia e gerou respostas fora do contexto", afirmou. Para o executivo, um ponto crítico é impedir que áreas de produto liberem protótipos diretamente ao usuário final: "Sem governança, aumenta o risco de alucinações e vazamento de instruções. Antes de ir para produção, precisa de homologação e revisão humana."
Cataldo reforçou que a definição de fronteiras de uso é essencial para mitigar danos. "É fundamental definir quais dados a IA pode usar e garantir que ela não saia do contexto ético para o qual foi programada", completou.
Miller Augusto trouxe a perspectiva do impacto organizacional e cultural. Ele destacou a expansão da Shadow AI e afirmou que modelos generativos ainda carregam vieses que podem comprometer a reputação de uma empresa. "Testes simples mostram como os modelos são enviesados. Pedi imagens de uma bailarina e não recebi nenhuma representação diversa. Isso cria verdades distorcidas", disse. Segundo ele, o uso não supervisionado pode introduzir conteúdo inadequado em fluxos críticos: "A Shadow AI já está no dia a dia das empresas, e isso preocupa. Quando a IA fala pela companhia, o risco é enorme."
Para Miller, políticas internas precisam ser objetivas e realistas: "Ainda não existe um modelo fechado de adoção, mas já sabemos que precisamos definir claramente quando a IA pode ser usada e como ela deve ser aplicada." Ele acrescentou que revisões humanas continuam indispensáveis para comunicações institucionais: "Para conteúdo externo, ainda não confio na IA sem revisão. Uma vez que a comunicação sai da empresa, ela passa a representar a empresa."
Ronaldo Andrade trouxe ao debate uma visão comparativa com práticas adotadas nos Estados Unidos. Ele afirmou que empresas americanas utilizam estruturas mais rígidas para projetos críticos: "Modelos de IA ligados à defesa só operam em enclaves isolados. É raro consultar fontes externas." Essa abordagem também é influenciada pela responsabilização direta dos líderes. "Em alguns setores, o executivo responde com o patrimônio pessoal por decisões sobre IA. Isso muda completamente o nível de rigor", disse. Para Andrade, esse cenário também afeta o uso de modelos generativos amplos: "Ferramentas generativas dificilmente são autorizadas para decisões críticas. O risco regulatório é muito alto."

há 2 meses
20









Portuguese (BR) ·