Skip to content

A nova norma ISO/IEC 42001 aumentará a confiança na IA

Com o objetivo de ajudar empresas e organizações a desenvolver uma estrutura robusta de governança de inteligência artificial (IA), a ISO/IEC 42001 sobre sistemas de gestão de IA foi publicada no dia 18 de dezembro de 2023.

A crescente adoção da inteligência artificial por fornecedores de produtos e serviços também tem gerado uma desconfiança cada vez maior em relação à nova tecnologia. A ISO/IEC 42001 é a primeira norma internacional de sistema de gestão para desenvolvimento e implementação seguros e confiáveis de IA.

Dando boas-vindas à nova norma, Thomas Douglas, Gerente Global da Indústria de ICT da DNV, disse: "Há uma necessidade clara e definida de uma norma sobre a tecnologia de IA e suas aplicações. Ela pode realmente ajudar a gerenciar riscos e garantir uma aplicação eficaz, segura e ética que promova a confiança entre organizações e usuários. Estamos satisfeitos por ela estar finalmente aqui e animados com a forma como ela ajudará as organizações a avançar".

As organizações estão ansiosas para aproveitar as oportunidades oferecidas pela IA. Mas é preciso ter cautela para lidar com as preocupações dos stakeholders e atender aos riscos e regulamentações emergentes. Para abordar algumas das preocupações relacionadas à IA, os governos de vários países estão introduzindo ou planejando leis e regulamentações que regem seu uso, incluindo a futura Lei de IA da UE.

A nova norma fornece requisitos para uma estrutura de sistema de gestão de IA certificável que permitirá que as organizações obtenham o máximo de benefícios e, ao mesmo tempo, assegurem às partes interessadas que os sistemas foram desenvolvidos e estão sendo gerenciados de forma responsável.

Adotando uma abordagem semelhante à da ISO 9001 sobre gestão da qualidade e da ISO 27001 sobre segurança da informação, por exemplo, a ISO/IEC 42001 fornece práticas recomendadas, regras, definições e orientações para gerenciar riscos e aspectos operacionais.

Os objetivos da ISO/IEC 42001 podem ser resumidos da seguinte forma:

  • Promover o desenvolvimento e o uso de sistemas de IA que sejam confiáveis, transparentes e responsáveis. 
  • Enfatizar princípios e valores éticos, como justiça, não discriminação e respeito à privacidade ao implantar sistemas de IA, de modo a atender às expectativas das partes interessadas.
  • Ajudar as organizações a identificar e mitigar os riscos relacionados à implementação da IA, o que, por sua vez, melhora a eficiência e reduz os custos.
  • Manter a conformidade regulamentar, incluindo requisitos de proteção de dados.
  • Criar mais confiança no gerenciamento de IA, incentivando as organizações a priorizar o bem-estar humano, a segurança e a experiência do usuário no design e na implantação da IA.

“A tecnologia da IA é muito promissora, mas, como qualquer inovação, ela deve ser implementada com responsabilidade para ser eficaz. Se você é um hospital, por exemplo, você quer salvar vidas, certo? Como um órgão de certificação de sistema de gestão global, a DNV está ansiosa para trabalhar com os clientes e ajudá-los a criar confiança em sua aplicação de IA", diz Thomas Douglas.