Recentemente, por questões de trabalho, tenho me interessado pelo tema de ética em inteligência artificial. Tudo começou quando comecei a fazer parte do time de riscos de um banco. Até então, minha visão era apenas do lado de desenvolvedor, o que depois descobri que na linguagem de riscos é chamado de primeira linha de defesa, porém, hoje, estou do lado da chamada segunda linha de defesa, validando modelos e entendendo como mitigar os riscos que são inerentes a todo processo de desenvolvimento desses modelos.
E, me debruçando sobre normas e políticas desenhadas por instituições bancárias globais, comecei a me deparar com um tema ainda mais abrangente, a regulamentação da inteligência artificial. Em resumo, a ideia da regulamentação é termos garantidos os direitos dos seres humanos no uso de IA, mas de uma maneira que também não impossibilite o desenvolvimento dessa tecnologia que por tanto tempo tem trazido diversos benefícios, e promete transformar nossa relação com o mundo externo, e por que não nosso mundo interno também?
É aí que entra o livro recentemente traduzido para o português, de Mark Coeckelbergh: Ética em IA. Esse livro traz reflexões filosóficas muito importantes sobre os impactos da inteligência artificial em nossas vidas, focando principalmente nas questões éticas associadas a isso. E, aproveitando um dos temas lançados no livro, de que os seres humanos devem saber quando o conteúdo produzido é desenvolvido por uma IA, gostaria de já dizer que tudo aqui escrito partiu de minha autoria, e que ainda estou me aprofundando nos conhecimentos dessa área, mas considero no mínimo interessante colocar essa reflexão sobre o assunto.
Pois bem, incialmente gostaria de trazer uma definição sobre ética, retirada do site Ética: o que é, o que significa e a melhor definição — Enciclopédia Significados:
“Ética é a área da filosofia dedicada às ações e ao comportamento humano, filosofia moral. O objeto de estudo da ética são os princípios que orientam as ações humanas e a capacidade de avaliar essas ações.
Ética e moral se diferenciam por a ética ser compreendida de maneira universal, enquanto a moral está sempre ligada aos fatores sociais e culturais que influenciam os comportamentos.
De uma forma sucinta, a ética é uma teoria que se ocupa dos princípios que orientam as ações, já a moral é prática e está relacionada às regras de conduta.” — Pedro Menezes
Nesse contexto, podemos dizer que a ética aplicada à IA visa entender as implicações dessa tecnologia no comportamento humano, assim como estabelecer diretrizes do que é considerado ético do uso, desenvolvimento e implantação da IA.
Trazendo para o lado prático, trago um exemplo muito discutido:
- Suponha que um carro autônomo tenha apenas duas possibilidades, avançar em direção a cinco pessoas, e matá-las ou causar algum tipo de dano irreversível, ou avançar em uma parede e levar o motorista apenas a óbito, qual decisão deveria tomar?
Essa questão nos leva a um ponto crucial abordado no livro: os agentes de IA devem ser considerados como entidades morais? Com isso, espera-se atribuir a tais agentes um sentido de responsabilidade por suas ações? No exemplo acima, o que consideraríamos adequado fazer enquanto seres humanos? Nosso instinto provavelmente nos diria para salvar nossas vidas, mas é isso algo que gostaríamos de repassar para a IA? Em um diálogo com o ChatGPT, coloquei essa questão, e a resposta foi que, para a IA, o que importa em essência são os números, pois não existe maior ou menor valor atribuídos pela vida das pessoas, todas as pessoas possuem os mesmos direitos, e, portanto, mais pessoas deveriam ser priorizadas em favor de menos.
Por mais que concorde com essa argumentação, ainda assim existem questões a serem debatidas. Conforme foi suscitado no livro, se não atribuirmos caráter moral e responsabilidade ao sistema de IA, então a quem deveríamos atribuir? Quando retiramos a autonomia dos seres humanos em relação às decisões tomadas, naturalmente perdemos a rastreabilidade de “culpa”, mas humanos sempre estão envolvidos nos processos, seja o desenvolvedor do modelo, a empresa que o vendeu, o humano que aceitou o piloto totalmente automático, ou a avaliação de riscos que não foi construída adequadamente. Perguntei também ao ChatGPT se a responsabilidade pela decisão tomada deveria recair sobre a IA, e este disse que não, pois o algoritmo não possui caráter moral, e, portanto, a responsabilidade deveria ser atribuída a quem desenvolveu a IA, sejam as pessoas ou empresas.
Aqui tenho minhas ressalvas, pois, endo construído algumas aplicações de IA, me veria particularmente desconfortável ao saber que os modelos que desenvolvi, que não tenho nem mais ideia de onde estão sendo aplicados, estão ainda hoje sob minha responsabilidade. Além disso, sempre são trabalhos em conjunto, que passam por equipes de validação e donos do produto, que deveriam também dividir essa responsabilidade. Me parece, nesse caso, que os desenvolvedores precisam ter consciência do caráter ético de suas aplicações, mas cabe principalmente à empresa estabelecer normas e processos de qualidade para mitigar tais riscos.
Outra relação que estabelecemos com o ente moral é a tarefa de explicação e transparência. Quando alguém é julgado, solicitamos uma explicação sobre o que motivou a ação realizada pela pessoa, qual foi seu processo lógico, que a levou a tomar decisões que acarretaram à ação final. Hoje, ainda existem muitos modelos, principalmente os de IA generativa, que estão fora do nosso alcance de interpretação. A explicabilidade desses modelos tipo “caixa-preta” é um dos principais assuntos de pesquisa dentro da academia, conhecido como XAI, explainable AI, uma área de investigação que busca justamente entender tais decisões realizadas por modelos de IA. Essa transparência é algo muito debatido nas regulamentações sobre IA, pois, caso não tenhamos clareza de como construí-la, pode ser que nunca cheguemos ao que consideraríamos uma IA responsável.
Gostaria de comentar também sobre a desigualdade geopolítica e econômica que está sendo construída pela onda de inteligência artificial. Primeiramente, devido ao consumo de água e energia, muito países não tem capacidade de criar infraestruturas necessárias para desenvolver seus próprios sistemas de IA mais robustos. Em segundo lugar, hoje, a NVIDIA domina o mercado de chips e processadores voltados para IA, e a concentração de riqueza produzida por este monopólio dificulta qualquer tipo de distribuição de benefícios sociais para os demais países, e isso não se aplica somente aos países em desenvolvimento, assim como hoje as maiores nuvens são americanas, também temos empresas americanas liderando a produção de tecnologias necessárias para construção de soluções robustas de IA. Se a ideia é termos uma IA para todos, é preciso pensar em como desenvolver tecnologia nacional que seja para todos também.
Por último, o viés das bases de dados é notoriamente uma deficiência dos modelos mais comuns de IA generativa. Cerca de 95% dos dados utilizados para treinamento geralmente vem da língua inglesa, e o restante de outras línguas, e dentro delas se encontra o português. Temos iniciativas brasileiras para a construção de uma “IA brasileira”, apesar desse termo não ser muito claro, existem projetos e empresas que já utilizam bases de dados nacionais para criação de chatbots e geradores de imagens, mas o consumo massivo vem de modelos de linguagem treinados no inglês ou com imagens americanas e traduzidos para o português, o que envolve diversas problemáticas linguísticas, me lembra inclusive o livro “A arte de escrever”, de Schopenhauer, onde o autor comenta que a tradução sempre traz consigo perda de significado, e isso pode trazer impactos cruciais em nossa cultura.
Por fim, recomendo imensamente o livro para todas as pessoas, pois traz uma visão muito importante do que podemos esperar nos próximos anos de discussões éticas sobre IA, suas implicações em nosso cotidiano, e principalmente os desafios, que não são poucos. Espero que você tenha gostado desse artigo e que ele desperte o seu interesse assim como essas questões despertaram o meu.