Semelhante ao que ocorreu em 2023, a inteligência artificial irá perturbar as nossas conversas, o nosso pensamento e os nossos negócios em 2024.
A IA está se tornando onipresente e sua influência pode ser sentida por quase todas os setores empresariais e é um movimento global. O gênio da IA está fora da garrafa e não há como voltar atrás. Esse avanço promete enormes oportunidades e uma transformação na vida empresarial.
É na área de compliance que a IA, e em particular a IA generativa, pode realmente impulsionar a eficiência.
Recentes softwares de IA generativa específicos para conformidade podem analisar e interpretar documentos regulatórios e políticos complexos e fornecer respostas a quaisquer perguntas em segundos. Isso pode ajudar a identificar rapidamente lacunas nas políticas organizacionais, reduzindo o tempo de leitura de centenas de páginas de políticas multilíngues.
A IA pode ser usada pelos colaboradores para configurar respostas instantâneas às questões de conformidade – reduzindo a necessidade de responder perguntas repetitivas.
Ela pode rastrear solicitações, respostas e relatórios para fornecer uma trilha de auditoria completa para reguladores, reduzindo o estresse.
Além disso, a capacidade atual da IA tem o potencial de atingir alguns outros pontos críticos da conformidade: poderia permitir-lhe comparar e analisar políticas e diretrizes, fornecendo recomendações sobre onde melhorar. Poderia ainda detectar sobreposições e contradições em grandes conjuntos de documentos e políticas.
O panorama é otimista: 54% dos entrevistados no último Estudo de Risco de Conformidade da Accenture (https://www.accenture.com/gb-en/insights/consulting/compliance-risk-study) afirmam que a inteligência artificial e as tecnologias de aprendizagem automática fortalecerão e beneficiarão a área de compliance.
Mas é preciso aprender como explorá-la com segurança. Abaixo trazemos 7 principais ações de conformidade, para uma utilização transparente e segura da IA:
▪ Introduzir regras básicas e desenvolver uma política que estabeleça metas e expectativas claras para o uso da inteligência artificial nas atividades empresariais;
▪ Educar os trabalhadores sobre os benefícios e riscos da IA (por exemplo, a capacidade de analisar grandes quantidades de dados e identificar tendências, análise comportamental e aprendizagem automática para análise preditiva, etc.) e certificar-se de que a equipe entenda os riscos da IA (por exemplo, o potencial de preconceito e discriminação, desinformação, questões de responsabilidade e governança, riscos de privacidade e segurança, etc.)
▪ Identificar casos de uso positivos que mostram como a IA pode melhorar as funções de conformidade – como triagem de mídia adversa, detecção de anomalias, análise de documentos, etc;
▪ Definir o apetite de risco da empresa em relação à IA e trabalhe dentro de limites para proteger os ativos informacionais e reputacionais (por exemplo, nunca carregar o IP, imagens ou outros dados proprietários da empresa em ferramentas de IA, como ChatGPT)
▪ Treinar a equipe para estar vigilante, para questionar e relatar suspeitas de desinformação que encontrarem – por exemplo, conscientização sobre o uso de deepfakes (vídeos falsos de engenharia social ou gravações de voz convincentes de executivos seniores da empresa), geração automatizada de malware, etc.
▪ Avaliar riscos potenciais e implementar controles adequados, com medidas de monitoramento e supervisão humana em atividades de alto risco (como recrutamento, por exemplo) para combatê-los;
▪ Fornecer transparência para trabalhadores, clientes, investidores e partes interessadas sobre o uso de IA pela empresa;
É importante que a empresa considere como a sua operação pode ser impactada por eventual regulamentação futura sobre uso de inteligência artificial, atuando preventivamente em relação às soluções de IA adotadas.
Você também pode comprar agora o meu treinamento: Fundamentos da LGPD