O presente artigo objetiva colaborar com o debate para a regulação do uso da inteligência artificial na temática da formação de equipes diversificadas para a construção de sistemas de IA mais equitativos e justos. O Direito Digital evolui para a normatização das relações estabelecidas a partir da digitalização da sociedade e do avanço das tecnologias emergentes, dentre elas, a inteligência artificial.

Todos os setores da sociedade participam da transformação digital. As plataformas de serviços digitais — desde alimentação, transporte e turismo até finanças, saúde, educação e serviços públicos — permeiam as relações humanas, em que milhões de pessoas, no mundo todo, disponibilizam seus dados. E a massa de informações disponibilizadas, em volume imenso, denomina-se Big Data.

Nessa medida, quando se pensa em definir inteligência artificial (IA), parte-se da premissa de que seu conceito tem natureza multidisciplinar, ou para alguns estudiosos, transdisciplinar (Dignum). Importa destacar que diversos campos do conhecimento são necessários para se compreender a lógica da inteligência artificial, dentre eles, a robótica, a matemática, a estatística, a ciência da computação, a linguística, a psicologia comportamental.

Cabe considerar que, na área jurídica, o uso de sistemas de IA envolve profissionais do Direito, da informática, da tecnologia da informação e das áreas do conhecimento acima citadas que precisam trabalhar em sistema colaborativo.

De modo abreviado, pode-se estabelecer a lógica da inteligência artificial: diante de dados, em grande quantidade, disponiblizados nas plataformas digitais e outros meios cibernéticos, os computadores com alta capacidade de processamento aliados a infraestruturas potentes (internet), contemplam máquinas programadas para a construção de algoritmos. E, por meio de Machine Learning (combinação de técnicas para detectar padrões, os sistemas de inteligência artificial entregam atividades preditivas.

Vale destacar que algoritmo pode ser definido como: “(…) um conjunto de instruções matemáticas, uma sequência de tarefas para alcançar um resultado esperado em um tempo determinado (…)”. (KAUFMAN)

Entretanto, com a expansão da inteligência artificial generativa (espécie de IA capaz de gerar novo conteúdo, como texto, imagem, áudio e vídeo, com base de treinamento em grandes modelos de linguagem), a interação entre o homem e a máquina se viu ampliada, pois, além das atividades preditivas, máquinas agora auxiliam os humanos na elaboração de resumos, criação de agendas e tabelas. E mais: a partir de comandos (perguntas elaboradas pelos humanos – os prompts), oferecem respostas.

Portanto, até o momento do avanço tecnológico, as principais finalidades dos sistemas de IA são:

  1. Oferecer respostas preditivas, vale dizer, a partir de dados pretéritos (com base na estatística e na probabilística) os sistemas de IA oferecem sugestões aos usuários para a tomada de decisões ( a exemplo de escolha de filmes em plataformas de streaming);
  2. Expandir os horizontes da inteligência humana natural (Inteligência Artificial Generativa)

Preconceitos programados

Ora, ao se pensar na lógica computacional, surgem outros desafios. Como são compostas as equipes de desenvolvedores de sistemas de IA, se representam todos os segmentos da sociedade e como se utilizam as bases de grande quantidade de dados?

O que se tem de concreto são as desigualdades sociais da sociedade. Então, quando se pensa na criação de sistemas de IA e construções de algoritmos, vale considerar que as equipes desenvolvedores necessitam da composição de equipes diversificadas de modo a representar os diversos segmentos da sociedade. Caso contrário, as desigualdades perpetradas no mundo real serão transferidos para o digital.

Na visão de especialistas, como Cath O’Neil, “As escolhas realizadas em programas de software são feitas por seres humanos falíveis, que programam os seus preconceitos nesses sistemas.”

Ademais, a psicologia comportamental moderna alerta para os vieses de cognição humana (cognitive bias) que devem ser compreendidas como “erros sistêmicos de avaliação, que afetam o entendimento e as crenças da pessoa em relação ao mundo a sua volta (Kahneman). E mais: podem derivar da coleta de dados: da escolha e do design de modelos de algoritmos para representar os dados de entrada (inputs) e gerar as saídas (outputs), bem como das questões de gênero: de medição, de representação, de aprendizagem dos modelos de IA .

Para contextualizar a relevância do debate, o Relatório Unesco cita como principais fontes finais possíveis de preconceito embutidos nos sistemas de IA os programadores de software (Lamola, 2021)

Os números do relatório Unesco apontam, ainda, que 29,3% das mulheres no mundo ocupam cargos de P&D (pesquisa e desenvolvimento científico),18% de mulheres são líderes entre as principais startups de IA do mundo (Best; Modi, 2019); 18% são autoras mulheres nas principais conferências de IA (Mantha,2019) e mais de 80% dos professores de IA são homens (Shoham et al., 2018).

Números importantes também merecem destaque sobre a inserção das mulheres no mercado da inteligência artificial (Unesco, 2019): 12% de pesquisadoras de IA ; 6% de desenvolvedoras de software; as mulheres com 13 vezes menos probabilidade de registrar uma patente [relevante] em comparação aos homens .

Ainda, de acordo com o relatório Where are the women? Mapping the gender job gap in AI — elaborado pelo Alan Turing Institute — “A falta de mulheres na ciência de dados cria ciclos de feedback que causam viés de gênero, tanto nos sistemas de IA quanto no aprendizado de máquina”. Vale dizer, que há distorções de gênero em todos os ciclos de vida dos sistemas de IA , apontando o estudo que há posição minoritária da mulheres em funções de arquitetura, engenharia e ciência de dados.

Se há pretensão de que o uso da IA deve ser responsável, importante refletir quais os parâmetros a serem considerados nesse espectro. Além de ser sustentável, para o bem de todos, que seja inclusiva. E, para tanto, cabe o olhar crítico dos reflexos das decisões automatizadas na amplificação das desigualdades , agora na sociedade digital.

Compreender os ciclos de vida da IA — planejamento, execução, monitoramento de resultados —, como os dados são inseridos nas máquinas (inputs) que servem de base de treinamento, o tipo de aprendizagem de máquina, a correlação com os dados que são processados e geram as saídas (outputs), em especial o algoritmo de base histórica e com preconceitos que poderá reproduzir vieses discriminatórios são pautas desafiadoras.

Sob a perspectiva de gênero, instrumentos internacionais, bem como o Protocolo de Julgamento com Perspectiva de Gênero descrevem os vieses algorítmicos e seus impactos nas relações de trabalho e nos demais campos da vida das mulheres. Daí a importância de que, quando se pensar na construção de sistemas de IA — em todos os ciclos de vida dos sistemas de IA, as mulheres estejam inseridas, em especial nas etapas de desenvolvimento, da arquitetura e da engenharia de dados, locais ainda pouco ocupados por elas.

No Protocolo de Julgamento com Perspectiva de Gênero, no capítulo “Da Justiça do Trabalho”, há importante referência:

“A opacidade destes algoritmos, somada ao fato de que as equipes de tecnologia da informação ainda são majoritariamente masculinas (brancas e heterossexuais), faz com que “as máquinas” reproduzam nas suas fórmulas algorítmicas os mesmos vieses discriminatórios dos processos seletivos humanizados.”

A evolução da humanidade demanda algumas iniciativas para contribuir com a mitigação das desigualdades, tais como a inserção das mulheres no contexto dos sistemas de IA, o fomento de políticas de inserção de mulheres em profissões de Stem (ciência, tecnologia, engenharia, matemática), em tradução livre, a requalificação e a especialização das mulheres para atender à demanda cada vez maior por habilidades de IA.

Certamente são iniciativas que contribuirão para a mudança do cenário dos papéis e da liderança das mulheres nos locais de trabalho de IA para que os sistemas sejam mais inclusivos e capazes de detectar a discriminação em razão das desigualdades vividas no mundo real .

No eixo ético, que seja garantida a supervisão humana contínua dos sistemas de IA, a inclusão das diretrizes éticas estabelecidas por observatórios globais (Unesco, OCDE) nos sistemas público e privado, ao apoio a institutos de auditoria e pesquisa independentes e a inclusão de profissionais de grupos diversos da sociedade nos Conselhos de Administração e nos Comitês de Ética para garantir a representação de todos os segmentos (raça, cor, etnia, dentre outros).

Afinal, o que se espera da era digital é por uma sociedade mais ética, em que sejam validados princípios como a transparência, a equidade, a não discriminação, a justiça e a igualdade. Tudo a contribuir para a mitigação da amplificação das desigualdades na sociedade hiperconectada e digital.

Referências

ARAÚJO, Maiana Figueiredo; COSTA, Andreia Fernandes da. Reflexões sobre o Direito e a Tecnologia: perspectivas e desafios. Revista Dike: Revista Jurídica da UESC , n. 10, 2024. Disponível em: https ://periodicos .uesc .br /index .php /dike /article /view /3819 . Acesso em: 23 nov. 2024.

COECKELBERGH, Mark. Ética na Inteligência Artificial. Título original: AI Ethics, traduzido por Clarisse de Souza et al. São Paulo/Rio de Janeiro: Ubu Editora/Editora PUC-Rio, 2023.

CRAWFORD, Kate. Atlas da IA – Poder, Política e Custos Planetários da Inteligência Artificial. Título Original: Atlas of AI: Power, Politics and the Planetary Costs of Artificial Intelligence. Tradução José Miguel Silva. Ed. Relógio D´água, 2021.

DIGNUM. Virgnia. Responsible Artificial Intelligence. How do Develop and Use AI in a Responsible Way. Springer, 2019.

KAUFMAN, D.; ZAVAGLIA, AC Relatório final de Pesquisa Governança e Ética de IA nas Companhias Abertas. São Paulo: ABRASCA, 2024. Realizada pela Associação Brasileira das Companhias Abertas, sob a cooperação dos autores.

RUSSELL, Stuart. Inteligência Artificial a nosso favor. Como manter o controle sobre a tecnologia. Tradução Berilo Vargas. 1ª ed. São Paulo. Companhia das Letras, 2021.

MEIJER, Alberto. Compreender a ciência moderna. Science Direct , 2007. Disponível em:https://www.sciencedirect.com / science /article /abs / pii / S0048733307000248 . Acesso em: 18 de maio de 2024.

ORGANIZAÇÃO DAS NAÇÕES UNIDAS PARA A EDUCAÇÃO, A CIÊNCIA E CULTURA (UNESCO); ORGANIZAÇÃO PARA A COOPERAÇÃO E DESENVOLVIMENTO ECONÔMICO (OCDE); BANCO INTERAMERICANO DE DESENVOLVIMENTO (BID). Os efeitos da IA na vida profissional das mulheres . 2022.

OCDE atualiza princípios de regulamentação internacional para inteligência artificial. BOL Notícias , 03 maio 2024. Disponível em: <https ://www .bol .uol .com .br /noticias /2024 /05 /03 /ocde -atualiza -principios -de -regulamentacao -internacional -para -inteligencia -artificial .ht. Acesso em: 23 de novembro de 2024.

OECD.AI. Políticas, dados e análises para uma inteligência artificial confiável. Disponível em: https://oecd.ai/en/. Acesso em: 30 ago. 2024.

O’NEIL. Cath. Weapons of Math Destruction. Crown. New York. 2016.

Fonte: Conjur

Deixe um comentário