a member of groupelephant.com
beyond corporate purpose  

EPI-USE Brasil - Consultoria SAP Especializada
  • Sobre Nós
  • Serviços
  • Produtos
  • SAP SuccessFactors
  • SAP S/4HANA
  • Cases de Sucesso
  • Blog
  • Contato
  • Sobre
    • Sobre Nós
    • Carreiras
    • Reconhecimentos
    • Rede de Parceiros
    • Group Elephant
    • ERP
  • Serviços
    • Serviços Relacionados a SAP
      • SAP SuccessFactors
      • SAP Gerenciamento de Capital Humano
      • Workforce Software
      • Booster for Payroll Control Center
    • Serviços na Nuvem
      • SAP S/4HANA
      • SAP HCM Cloud
      • SAP Payroll Cloud
    • Outros Serviços
      • ServiceNow HR Service Delivery
      • Suporte Pós-Implantação (AMS)
      • Suporte Evolução SAP SuccessFactors
      • SAP SuccessFactors para PME's
  • Produtos
    • Data Sync Manager
      • System Builder
      • Client Sync
      • Object Sync
      • Transformação de Landscape
    • HCM
      • Data Sync Manager para HCM
      • Query Manager
      • Variance Monitor
      • Pay Recon
      • Advanced Time Process Manager
      • Connector Framework
      • PRISM
      • talentools - Plataforma de RH
    • Outros Produtos
      • Treinamento e Serviços
      • Pacote de serviços QM (Query Manager)
      • Suporte de Produto
      • SkillScanner
      • eSocial Express
      • Serviços de localizações Folha de Pagamento SAP
    • Landscape
      • Data Sync Manager™ Suite
      • Cryptographic Library
    • Relatórios
      • Query Manager
      • Document Builder
    • Segurança
      • Data Secure
      • GDPR Privacy Suite
  • SAP S/4HANA
  • SAP SuccessFactors
  • Blog
  • Cases de Sucesso
  • Contato

Fórum Econômico Mundial: Vieses da Inteligência Artificial

Roberto Medeiros fala dos vieses da Inteligência Artificial, e como eles devem ser mitigados para uma tecnologia mais justa e humana.

  Em Transformação Digital

  Publicado em 22/01/2024 17h00

  7 minutos para leitura

  • Compartilhe esse post
  • Compartilhar no Facebook
  • Compartilhar no Twitter

Vieses da Inteligência Artificial | Na semana passada, ocorreu em Davos, na Suíça, mais uma edição do Fórum Econômico Mundial. O principal tema discutido na reunião com diversas figuras governamentais e empresariais foi em relação ao uso correto das tecnologias de Inteligência Artificial Generativa.

Em outubro de 2023, o nosso Associate Partner e Country Managing Director, Roberto Medeiros, compareceu ao SuccessConnect, maior evento de HXM do mundo, em Las Vegas, Nevada. Um assunto que dominou o evento e que está sendo amplamente discutido atualmente é a ética e vieses na Inteligência Artificial.

  

Dados para Vieses da Inteligência Artificial Generativa 

Ao falar com Roberto, ele nos lembrou que todas as tecnologias foram, antes de tudo, criadas e programadas por pessoas. Pessoas essas que têm suas vivências, motivações, e cultura, pré concepções individuais e sociais, muitas vezes inconscientes. 

"Se a ação humana enviesada já tem consequências individuais, quando se fala de uma máquina programada por pessoas, e operada por algoritmos dentro de um aprendizado feito pelo machine learning, podemos ter consequências sociais mais profundas," enfatiza Roberto, após as palestras do SuccessConnect.

Uma pesquisa realizada pela McKinsey, trouxe alguns exemplos reais de como as empresas empregam vieses inconscientes em seus negócios. Como exemplo, a consultoria trouxe a análise de crédito de candidatos a emprego, que pode prejudicar minorias sociais. Segundo o estudo, isso é feito mesmo sem evidências claras de uma conexão entre o histórico de crédito e o desempenho no trabalho.

Alguns especialistas da tecnologia argumentam que a IA pode e deve reduzir a interpretação parcial humana de dados. Isso se deve, pois os algoritmos de Machine Learning aprendem a considerar apenas os fatores que aumentam a precisão de suas previsões, tornando as visões mais imparciais.

 

Avaliação de Risco pela Inteligência Artificial

Em contrapartida, para enfatizar o argumento da McKinsey, pode-se citar o caso de um software desenvolvido para realizar avaliações de risco nos prisioneiros do sistema criminal americano. Esses softwares foram desenvolvidos para auxiliar nas decisões sobre quem pode ser libertado em todas as fases do sistema de justiça criminal em vários estados dos EUA.

Mesmo que desenvolvido com as melhores intenções pela equipe responsável, o software acabou revelando disparidades e injustiças sociais baseadas na aparência dos detentos. O algoritmo rotulava erroneamente os futuros réus pretos com alto risco em quase duas vezes a mais que os brancos. E da mesma forma, o software rotulou erroneamente os réus brancos como de baixo risco com mais frequência do que os réus negros.

 

Erros de algoritmos

Os mesmos pesquisadores que constataram os vieses no caso do software de avaliação de risco do sistema criminal americano, constataram outras falhas em diferentes setores sociais. Como exemplo, se fizermos uma busca com o termo "CEO" no Google Imagens, apenas 11% dos resultados mostrarão mulheres. Isso se mostra contrário ao argumento de diversidade e inclusão que as empresas estão adotando.

Isso não significa, necessariamente, que os desenvolvedores desses sistemas sejam pessoas racistas ou machistas, mas que os algoritmos estão condicionados a reconhecerem e analisarem dados que sigam esse padrão de desigualdades históricas e sociais. 

Agora a discussão que fica é em relação a como induzir dados imparciais para avaliação de um algoritmo em um sistema operacional. 

 

Como evitar vieses na Inteligência Artificial? 

Para mitigar estes problemas de viés da Inteligência Artificial no processo de tomada de decisão, é crucial empregar uma combinação de abordagens. Uma delas tem relação com a atuação da IA, como apoio para aceleração do próprio processo, e observação de seu comportamento, identificando oportunidade de aprimoramento de seu treino para aplicação cada vez mais autônoma.

Segundo uma pesquisa da Stack Overflow com mais de cem mil pessoas desenvolvedoras ao redor do mundo em 2018: quase metade das pessoas criadoras e tecnólogas por trás da ML e IA deveriam ser as primeiras responsáveis por questões sociais envolvendo IA. E um terço considera que deveria ser um órgão regulatório.


Interpretabilidade e Explicabilidade

É importante que a tomada de decisões dentro dos algoritmos seja explicada de forma clara e compreensível. No entanto, com a popularização de modelos mais complexos, como os de Deep Learning, torna-se difícil entender a contribuição de cada atributo na produção de um resultado.

Isso levou à necessidade de estudar formas de interpretar e explicar os algoritmos de Machine Learning, muitas vezes opacos, conhecidos como “caixa preta”. A Interpretabilidade é a possibilidade de observar a relação de causa e efeito dentro de um sistema, de entender o que está acontecendo no algoritmo sem necessariamente entender o porquê. 

Enquanto a explicabilidade é a capacidade de explicar em termos humanos a mecânica interna da máquina. Esses são conceitos que poderiam ajudar a aumentar a confiança na utilização de tecnologias de IA.

 

A inclusão de diversidade como estratégia

A criação de sistemas de IA justos exige que eles reflitam os valores das pessoas ou populações que os utilizarão. A inclusão de diversidade é fundamental para alcançar esse objetivo. Quanto mais diversidade houver nas equipes de desenvolvimento dos sistemas de IA, menor será a ocorrência de erros e vieses.

No entanto, ainda há um desequilíbrio de gênero na força de trabalho com habilidades técnicas disruptivas, como IA, robótica e engenharia genética, segundo o Fórum Econômico Mundial em 2020. As mulheres representam apenas 26% dos profissionais em IA e Ciência de Dados no mundo, enquanto os homens representam 74%. 

No Brasil, a proporção é ainda menor, com apenas 18% de mulheres nessas áreas. Isso é ainda mais preocupante quando se considera a falta de representação de mulheres negras, periféricas e outros grupos minoritários. É importante tornar esses processos mais inclusivos para garantir que a diversidade seja valorizada e que a inclusão seja priorizada.

 

Ética como caminho para o futuro da IA

É evidente que os vieses prejudicam não apenas aqueles que sofrem discriminação, mas também afetam toda a sociedade. Isso, dito, o potencial da Inteligência Artificial fica reduzido para o bem comum. Esses vieses estimulam a desconfiança e podem gerar resultados distorcidos.

Os líderes empresariais e organizacionais são responsáveis por garantir que os sistemas de IA que utilizam sejam desenvolvidos de forma ética e imparcial. Dessa forma, eles têm como finalidade melhorar a tomada de decisões humanas. Além disso, esses líderes devem procurar tecnologias que ajudem a promover a justiça social. Afinal, a IA é uma ferramenta poderosa que pode trazer benefícios significativos para a sociedade se for usada de maneira responsável e consciente.

Antevendo possíveis violações a direitos decorrentes dessas falhas, alguns países e empresas já discutem a criação de normas que tratem do problema. É o caso da SAP. 

Ao mesmo tempo em que existe um trabalho de pesquisa voltado para inovação e utilização da IA generativa em suas plataformas, a empresa viu a necessidade de desenvolver um Manual para inscrição Política Global de Ética em IA da SAP em todo o processo de fábrica de IA. 

A SAP sabe que a IA tem grande potencial para criar oportunidades para as empresas, governos e sociedades. As pessoas só confiarão em soluções de IA se houver o regimento de regras morais claras no desenvolvimento, a implantação, o uso e a venda de sistemas de IA.

 

Business SAP IA com as soluções SAP SuccessFactors no SuccessConnect:

De acordo com a SAP no SuccessConnect, a IA Generativa será um dos pilares das soluções SAP SuccessFactors. O seu treinamento em conjunto de dados de negócios dos mais amplos setores mostra a confiabilidade e relevância dessa IA para os processos de negócios. Além disso, a sua construção em princípios éticos e de privacidade de dados  garante a sua responsabilidade.

A estratégia se baseia na entrega de valor aos negócios com diversos tipos de IA, como: 

  • IA Generativa: para acelerar processos e tarefas do RH, por meio da rápida geração ou resumo de textos entre as suites de SuccessFactors HXM.
  • IA Conversacional: Entrega uma melhor experiência do colaborador enquanto diminui  custos de pessoas, por meio de chatbots com uma linguagem de maior processamento natural.
  • Automação: diminuição de custos de pessoas enquanto aumenta a precisão nos dados além de acelerar processos repetitivos e essenciais do RH.
  • Aprendizado profundo da IA: Transforme o desenvolvimento de carreira e a experiência do colaborador com recomendações e profundo insights personalizados.

Avalie este conteúdo  


Nota média: 4,75

  • Compartilhe esse post
  • Compartilhar no Facebook
  • Compartilhar no Twitter

Assine a nossa Newsletter!

E fique por dentro de todas as novidades da EPI-USE Brasil.

Legal!
Você assinou a nossa Newsletter!

A partir de agora você receberá nossas novidades diretamente no seu e-mail!

Para isso, é importante que você adicione o e-mail [email protected] na lista de remetentes confiáveis,
para evitar que nossas mensagens fiquem presas na caixa de spam!

Um abraço,
Equipe EPI-USE Brasil

Opps!
Um erro ocorreu!

Sentimos muito por isso! Tente novamente mais tarde!

Um abraço,
Equipe EPI-USE Brasil

Veja Também

Por que a observabilidade vai além do monitoramento: impactos nas decisões de TI

Por que a observabilidade vai além do monitoramento: impactos nas decisões de TI

Game of Flows: quem manda na sua empresa são os processos organizacionais

Game of Flows: quem manda na sua empresa são os processos organizacionais

Software ERP: seu sistema está pronto para os próximos 10 anos?

Software ERP: seu sistema está pronto para os próximos 10 anos?

SOBRE NÓS

A EPI-USE atua com foco nas soluções: SAP S/4HANA, SAP SuccessFactors, Qualtrics, SAP BTP, WorkForce Software, ServiceNow e SAP Signavio. É especialista em infraestrutura em nuvem pela AWS, Microsoft Azure e Google Cloud e atua com automação de testes e observabilidade. A EPI-USE é membro do groupelephant.com que emprega mais de 3.700 pessoas em mais de 40 países.

ALÉM DO PROPÓSITO CORPORATIVO

1% da nossa receita é destinada à proteção e a preservação de elevantes e rinocerontes!


1% de nossa receita é aplicada à proteção e preservação de elefantes e rinocerontes em risco, por meio de uma estratégia baseada no alívio da pobreza.
www.erp.ngo

ESCRITÓRIO PRINCIPAL (SÃO PAULO)

  • Alameda Terracota 185, cj 931 - - São Caetano do Sul - SP
  • +55 11 3846-0430
  • [email protected]

SIGA-NOS NAS REDES SOCIAIS


Copyright 2025 EPI-USE Brasil | A EPI-USE Brasil é membro do groupelephant.com | Política de Privacidade | Política de Cookies | Aviso Legal | Canal de Ética