Educação é a base da governança em inteligência artificial

Tom Edwards, líder mundial em IA generativa da EY, destaca, em visita ao Brasil, que as empresas devem conhecer profundamente a tecnologia de IA e disseminar esse conhecimento entre os colaboradores antes de implementar seus próprios sistemas.

emiliano-vittoriosi-fvxNerA8uk0-unsplashIA explicável evita que o sistema seja considerado uma espécie de “caixa preta”. (Foto: Unsplash)

O sistema de inteligência artificial deve ser facilmente explicável aos públicos em contato com ele, começando pelos desenvolvedores dessas aplicações, que precisam saber exatamente suas características e formas de tomada de decisão.

“A educação constitui a base da governança em inteligência artificial. Ela começa desde o básico, mostrando para os colaboradores que não estão envolvidos nessa área – ou familiarizados com ela – os principais conceitos relacionados a essa tecnologia e os motivos que fazem dela tão importante atualmente para os negócios”, diz Tom Edwards, líder mundial em IA generativa na EY.

“Ao mesmo tempo, os desenvolvedores devem saber explicar o sistema criado, tendo conhecimento do seu banco de dados, por exemplo, e demais características, inclusive decisórias. É a chamada IA explicável, um conjunto de processos e métodos que permite aos públicos envolvidos com um sistema entender e confiar nas decisões e nos resultados apontados pelos algoritmos de aprendizado de máquina”, completa.

A IA explicável, que faz parte da abordagem responsável para desenvolvimento de inteligência artificial, evita que o sistema seja considerado uma espécie de “caixa preta” por causa da impossibilidade de compreender suas decisões. Isso ocorre quando nem mesmo os engenheiros ou cientistas de dados que criaram os algoritmos conseguem entender ou explicar o que está ocorrendo, como os motivos que levaram a um resultado específico.

“Tenho percebido que a educação não recebe a devida importância ao longo do processo de transformação dos negócios. As empresas precisam assegurar que haja um nivelamento básico de entendimento sobre a inteligência artificial e seus riscos e oportunidades. Somente a partir daí, os colaboradores poderão pensar em soluções efetivas em suas áreas ou funções que sejam viáveis e seguras”, observa Tom.

Credibilidade dos sistemas de IA

Dois elementos centrais que constam nos principais frameworks mundiais para gestão responsável dos sistemas de IA, como o da OCDE (Organização para Cooperação e Desenvolvimento Econômico), são “human-centric AI” e “trustworthy AI”. O primeiro diz que os sistemas de IA devem ser centrados no ser humano. Já o segundo defende que esses sistemas sejam confiáveis em todas as suas etapas e características. Ambos são, portanto, decorrência da explicabilidade, já que somente um sistema de IA que possa ser explicado com facilidade para todos os públicos traz confiabilidade por colocar o ser humano no centro e como sua razão de existir.

Há, ainda, a ética como fator essencial e principiológico (aplicada desde a concepção desses sistemas: ethics by design), que está acima, portanto, de todos os elementos de IA. Por meio dela, ficam garantidas características como equidade e não discriminação; responsabilidade e prestação de contas (accountability); e transparência.

Alinhamento multidisciplinar

Uma forma de assegurar a educação como base da governança é promover o alinhamento entre os diversos profissionais envolvidos na implementação dos sistemas de IA, como o CIO (Chief Information Officer), o time de privacidade e as respectivas áreas do negócio que pretendem implementar funcionalidades de IA. Há também os parceiros de negócio, ou fornecedores, que eventualmente possam estar inseridos em uma solução de IA que será criada em parceria com a organização.

“A governança vai definir tudo que precisa ser feito para garantir a implementação segura e eficiente do sistema de IA, como, além da educação dos colaboradores e parceiros, a abordagem e políticas corretas”, destaca Tom.

Ainda segundo o especialista, as seguintes práticas são desejáveis: mapeamento dos riscos associados aos usos esperados do sistema e de eventuais formas de mau uso; governança dos dados utilizados; documentação sobre o funcionamento do sistema de IA e das decisões envolvidas em sua construção, implementação e uso; transparência do sistema de IA nos processos decisórios e na interpretação dos resultados; e testes que assegurem precisão, cobertura, acurácia, robustez e cibersegurança do sistema.