No mundo dos negócios, a inteligência artificial (IA) tem sido adotada com crescente frequência. Desde o lançamento do ChatGPT (plataforma de IA generativa) em novembro de 2022 (versão GPT-3), a inteligência artificial ganhou destaque global. Utilizando um dos maiores bancos de dados do mundo, essa tecnologia avançou velozmente em curto período, facilitando o acesso à informação, a automatização de processos, traduções, resumos e até conversação humanizada. Entretanto, todo esse avanço tecnológico rapidamente trouxe novas preocupações no mundo legal e corporativo.

 

Atualmente, a inteligência artificial desenvolvida pela plataforma ChatGPT se destaca como uma das mais robustas e amplamente utilizadas — sendo o Brasil o quarto país no mundo com maior usabilidade da plataforma —, beneficiando-se da vasta quantidade de informações em seu banco de dados e da acessibilidade gratuita de sua versão mais básica.

 

Com o aumento da acessibilidade das ferramentas de IA generativa ao público, observamos sua rápida integração em diversos campos e indústrias. Esse cenário tem destacado a urgência para a necessidade de criação de políticas que capacitem os profissionais para a aplicação responsável e profissional dessa tecnologia.

 

Políticas de IA no ambiente de trabalho

Ciente da capacidade de automatizar processos complexos, analisar grandes volumes de dados e oferecer percepções preditivas, a IA está redefinindo estratégias e operações corporativas. Nesse contexto, um tema ainda pouco discutido de maneira transparente nas empresas é a regulamentação do uso de IA no ambiente de trabalho. Por isso, à medida que as empresas, representadas pelos seus funcionários, adotam a utilização dessa tecnologia, torna-se essencial estabelecer políticas de IA consistentes, conhecidas como “AI policy”.

 

Vale destacar que há uma corrente que defende a proibição total do uso da IA no ambiente corporativo, considerando os riscos do vazamento de informações e a preservação pela autenticidade do trabalho. Do outro lado, há uma defesa do emprego da AI com uma abordagem mais flexível, refletindo possivelmente as tendências sociais, sustentando o uso moderado, transparente e confiável. Independente do posicionamento, é imprescindível a regulamentação da exploração da IA, à medida que sua aplicação se torna cada vez mais inevitável.

 

Contudo, essas orientações não apenas definem as diretrizes éticas para o uso da IA, mas também garantem a sua conformidade com as normas, além de fortalecerem a confiança com clientes e investidores. De modo geral, é tecnologicamente inviável garantir o controle e monitoramento do uso da IA, mas a ausência de regras sobre sua exploração é ainda mais arriscada e comprometedora.

 

Critérios e requisitos

A política de diretrizes do uso de IA deve estabelecer claramente os tipos de inteligência artificial permitidos na organização, proibir aplicativos específicos e definir quais informações podem ser compartilhadas com terceiros, sendo este último ponto crucial em sua gestão. Uma alternativa viável que tem sido adotada é o desenvolvimento de uma plataforma exclusiva, dentro da própria empresa ou organização.

 

Um exemplo recente é o “ChatTCU”, criado pelo Tribunal de Contas da União para a utilização de todos os servidores e funcionários, que utiliza informações e documentos relevantes ao trabalho do tribunal (como relatórios, decisões, jurisprudências, normas, entre outros dados parte do domínio público e específico de atuação do TCU).

 

Assim, além de uma ferramenta própria, que também possui os seus riscos, como podemos prever o uso seguro e ético dessa ferramenta dentro do contexto corporativo? Embora ainda não haja regulamentações específicas sobre essa tecnologia no Brasil, diversas empresas e setores estão estabelecendo suas próprias normas e diretrizes.

 

Em suma, a existência de um AI policy, (política de inteligência artificial), é indispensável, e deve abordar uma série de aspectos relevantes para garantir o tratamento ético, seguro e eficaz da inteligência artificial em uma organização. Inicialmente, destacamos alguns elementos principais que uma AI policy deve incluir:

 

  • Objetivos: o documento deve estabelecer de forma clara os objetivos da política de IA, como assegurar conformidade legal e promover ética no tratamento de dados.2
  • Escopo de Aplicação: Deve mencionar a forma que a política será aplicada dentro da organização, identificando os departamentos ou áreas mais relevantes para a implementação de IA.
  • Governança: Deve designar pessoas responsáveis pela implementação, monitoramento e conformidade da política de IA incluindo comitês de gestores
  • Transparência: Deve demonstrar a necessidade de transparência na aplicação de IA, bem como das demais plataformas, sempre diferenciando e exemplificando o que seria um uso justo e razoável.
  • Privacidade e Segurança de Dados: Deve garantir que a coleta, tratamento e armazenamento de dados pessoais sejam realizados de forma segura e segundo as premissas permitidas na Lei Geral de Proteção de Dados (LGPD).
  • Monitoramento: Deve estabelecer procedimentos para avaliar regularmente o impacto dos sistemas de IA monitorando seu desempenho dentro da organização, além dos efeitos positivos e negativos.
  • Treinamento: Deve implementar programas de treinamento para funcionários sobre ética em IA, privacidade de dados, violação de possíveis direitos e adequação à política.

 

Efeitos

Um exemplo recente dos impactos da ausência de AI policy bem estruturado ocorreu em uma das maiores empresas de tecnologia do mundo. No início do ano passado, a Samsung – empresa sul –coreana de tecnologia – determinou a proibição do uso de ferramentas de inteligência artificial generativa após descobrir que um membro de sua equipe havia inserido um código confidencial da companhia na plataforma.

 

Esse incidente trouxe graves problemas na integridade e segurança dos dados da empresa, o que ocasionou na divulgação de informações confidenciais. Uma vez inseridos dados sigilosos em sistemas como o ChatGPT, há desafios técnicos significativos na garantia de sua exclusão completa. A supressão dessas informações inseridas, mesmo que por uma decisão judicial, ainda não tem como ser completamente garantida.

 

Em suma, a existência de um AI policy robusta não apenas direciona a sua utilização, como ajuda a mitigar riscos associados à exploração dessa tecnologia, além de auxiliar na contribuição de um ambiente de trabalho mais protegido, que observa os avanços tecnológicos, mas busca controlar o uso efetivo.

 

Urgência

Não obstante, outro fator que sublinha a necessidade da existência de política de orientações sobre a exploração da IA dentro das empresas é o Projeto de Lei 2.238/2023, atualmente em tramitação no Brasil, que visa regulamentar a utilização da inteligência artificial no país. Esse projeto prevê requisitos indispensáveis como o da transparência, exigindo que fornecedores e operadores informem os usuários sobre a aplicação da IA e adotem medidas para evitar discriminação, garantindo a conformidade com as normas vigentes.

 

Com base nos pontos abordados, resta evidente que a adoção crescente da inteligência artificial generativa no mundo dos negócios e em outros setores requer políticas eficazes para orientar seu uso responsável. O desenvolvimento dessas diretrizes é crucial não apenas para atender às demandas atuais, mas também para preparar as empresas para os desafios e oportunidades futuras que a IA trará.

 

Bibliografia

 

Exame. Samsung proíbe uso de IA após vazamento de dados com ChatGPT. Disponível em: https://exame.com/tecnologia/samsung-proibe-uso-de-ia-apos-vazamento-de-dados-com-chatgpt/. Acesso em: 01 jul. 2024.

 

GLOBO. Samsung proíbe funcionários de usarem ChatGPT e BARD após vazamento de dados. Época Negócios, 2023. Disponível em: https://epocanegocios.globo.com/tecnologia/noticia/2023/05/samsung-proibe-funcionarios-de-usarem-chatgpt-e-bard-apos-vazamento-de-dados.ghtml. Acesso em: 01 jul. 2024.

 

HIBOB. AI policy template. Disponível em: https://www.hibob.com/guides/ai-policy-template/. Acesso em: 30 junho. 2024.

 

BRASIL. Senado Federal. Projeto de Lei nº 2.238, de 2023. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/157233. Acesso em: 06 jul. 2024.

 

Floridi, L. (2021). A Unified Framework of Five Principles for AI in Society. In Ethics, Governance, and Policies in Artificial Intelligence (Vol. 144, pp. 5–17). Disponível em:  https:// doi. org/ 10. 1007/ 978-3- 030- 81907-1_2. Acesso em: 08 jul. 2024.

 

UOL. Brasil é o 4º país que mais usa ChatGPT no mundo; conheça o top 10. https://gizmodo.uol.com.br/brasil-e-o-4o-pais-que-mais-usa-chatgpt-no-mundo-conheca-o-top-10/amp.

 

Acesso em: 08 jul. 2024. Acesso em: 08 jul. 2024.

 

Fonte: Conjur

Deixe um comentário