Ética em IA: Comentários sobre o livro de Mark Coeckelbergh

Recentemente, por questões de trabalho, tenho me interessado pelo tema de ética em inteligência artificial. Tudo começou quando comecei a fazer parte do time de riscos de um banco. Até então, minha visão era apenas do lado de desenvolvedor, o que depois descobri que na linguagem de riscos é chamado de primeira linha de defesa, porém, hoje, estou do lado da chamada segunda linha de defesa, validando modelos e entendendo como mitigar os riscos que são inerentes a todo processo de desenvolvimento desses modelos.

E, me debruçando sobre normas e políticas desenhadas por instituições bancárias globais, comecei a me deparar com um tema ainda mais abrangente, a regulamentação da inteligência artificial. Em resumo, a ideia da regulamentação é termos garantidos os direitos dos seres humanos no uso de IA, mas de uma maneira que também não impossibilite o desenvolvimento dessa tecnologia que por tanto tempo tem trazido diversos benefícios, e promete transformar nossa relação com o mundo externo, e por que não nosso mundo interno também?

É aí que entra o livro recentemente traduzido para o português, de Mark Coeckelbergh: Ética em IA. Esse livro traz reflexões filosóficas muito importantes sobre os impactos da inteligência artificial em nossas vidas, focando principalmente nas questões éticas associadas a isso. E, aproveitando um dos temas lançados no livro, de que os seres humanos devem saber quando o conteúdo produzido é desenvolvido por uma IA, gostaria de já dizer que tudo aqui escrito partiu de minha autoria, e que ainda estou me aprofundando nos conhecimentos dessa área, mas considero no mínimo interessante colocar essa reflexão sobre o assunto.

Pois bem, incialmente gostaria de trazer uma definição sobre ética, retirada do site Ética: o que é, o que significa e a melhor definição — Enciclopédia Significados:

“Ética é a área da filosofia dedicada às ações e ao comportamento humano, filosofia moral. O objeto de estudo da ética são os princípios que orientam as ações humanas e a capacidade de avaliar essas ações.

Ética e moral se diferenciam por a ética ser compreendida de maneira universal, enquanto a moral está sempre ligada aos fatores sociais e culturais que influenciam os comportamentos.

De uma forma sucinta, a ética é uma teoria que se ocupa dos princípios que orientam as ações, já a moral é prática e está relacionada às regras de conduta.” — Pedro Menezes

Nesse contexto, podemos dizer que a ética aplicada à IA visa entender as implicações dessa tecnologia no comportamento humano, assim como estabelecer diretrizes do que é considerado ético do uso, desenvolvimento e implantação da IA.

Trazendo para o lado prático, trago um exemplo muito discutido:

  • Suponha que um carro autônomo tenha apenas duas possibilidades, avançar em direção a cinco pessoas, e matá-las ou causar algum tipo de dano irreversível, ou avançar em uma parede e levar o motorista apenas a óbito, qual decisão deveria tomar?
Photo by Simone Secci on Unsplash

Essa questão nos leva a um ponto crucial abordado no livro: os agentes de IA devem ser considerados como entidades morais? Com isso, espera-se atribuir a tais agentes um sentido de responsabilidade por suas ações? No exemplo acima, o que consideraríamos adequado fazer enquanto seres humanos? Nosso instinto provavelmente nos diria para salvar nossas vidas, mas é isso algo que gostaríamos de repassar para a IA? Em um diálogo com o ChatGPT, coloquei essa questão, e a resposta foi que, para a IA, o que importa em essência são os números, pois não existe maior ou menor valor atribuídos pela vida das pessoas, todas as pessoas possuem os mesmos direitos, e, portanto, mais pessoas deveriam ser priorizadas em favor de menos.

Por mais que concorde com essa argumentação, ainda assim existem questões a serem debatidas. Conforme foi suscitado no livro, se não atribuirmos caráter moral e responsabilidade ao sistema de IA, então a quem deveríamos atribuir? Quando retiramos a autonomia dos seres humanos em relação às decisões tomadas, naturalmente perdemos a rastreabilidade de “culpa”, mas humanos sempre estão envolvidos nos processos, seja o desenvolvedor do modelo, a empresa que o vendeu, o humano que aceitou o piloto totalmente automático, ou a avaliação de riscos que não foi construída adequadamente. Perguntei também ao ChatGPT se a responsabilidade pela decisão tomada deveria recair sobre a IA, e este disse que não, pois o algoritmo não possui caráter moral, e, portanto, a responsabilidade deveria ser atribuída a quem desenvolveu a IA, sejam as pessoas ou empresas.

Aqui tenho minhas ressalvas, pois, endo construído algumas aplicações de IA, me veria particularmente desconfortável ao saber que os modelos que desenvolvi, que não tenho nem mais ideia de onde estão sendo aplicados, estão ainda hoje sob minha responsabilidade. Além disso, sempre são trabalhos em conjunto, que passam por equipes de validação e donos do produto, que deveriam também dividir essa responsabilidade. Me parece, nesse caso, que os desenvolvedores precisam ter consciência do caráter ético de suas aplicações, mas cabe principalmente à empresa estabelecer normas e processos de qualidade para mitigar tais riscos.

Photo by Andreea Crainic on Unsplash

Outra relação que estabelecemos com o ente moral é a tarefa de explicação e transparência. Quando alguém é julgado, solicitamos uma explicação sobre o que motivou a ação realizada pela pessoa, qual foi seu processo lógico, que a levou a tomar decisões que acarretaram à ação final. Hoje, ainda existem muitos modelos, principalmente os de IA generativa, que estão fora do nosso alcance de interpretação. A explicabilidade desses modelos tipo “caixa-preta” é um dos principais assuntos de pesquisa dentro da academia, conhecido como XAI, explainable AI, uma área de investigação que busca justamente entender tais decisões realizadas por modelos de IA. Essa transparência é algo muito debatido nas regulamentações sobre IA, pois, caso não tenhamos clareza de como construí-la, pode ser que nunca cheguemos ao que consideraríamos uma IA responsável.

Photo by Mathieu Stern on Unsplash

Gostaria de comentar também sobre a desigualdade geopolítica e econômica que está sendo construída pela onda de inteligência artificial. Primeiramente, devido ao consumo de água e energia, muito países não tem capacidade de criar infraestruturas necessárias para desenvolver seus próprios sistemas de IA mais robustos. Em segundo lugar, hoje, a NVIDIA domina o mercado de chips e processadores voltados para IA, e a concentração de riqueza produzida por este monopólio dificulta qualquer tipo de distribuição de benefícios sociais para os demais países, e isso não se aplica somente aos países em desenvolvimento, assim como hoje as maiores nuvens são americanas, também temos empresas americanas liderando a produção de tecnologias necessárias para construção de soluções robustas de IA. Se a ideia é termos uma IA para todos, é preciso pensar em como desenvolver tecnologia nacional que seja para todos também.

Por último, o viés das bases de dados é notoriamente uma deficiência dos modelos mais comuns de IA generativa. Cerca de 95% dos dados utilizados para treinamento geralmente vem da língua inglesa, e o restante de outras línguas, e dentro delas se encontra o português. Temos iniciativas brasileiras para a construção de uma “IA brasileira”, apesar desse termo não ser muito claro, existem projetos e empresas que já utilizam bases de dados nacionais para criação de chatbots e geradores de imagens, mas o consumo massivo vem de modelos de linguagem treinados no inglês ou com imagens americanas e traduzidos para o português, o que envolve diversas problemáticas linguísticas, me lembra inclusive o livro “A arte de escrever”, de Schopenhauer, onde o autor comenta que a tradução sempre traz consigo perda de significado, e isso pode trazer impactos cruciais em nossa cultura.

Photo by Joshua Hoehne on Unsplash

Por fim, recomendo imensamente o livro para todas as pessoas, pois traz uma visão muito importante do que podemos esperar nos próximos anos de discussões éticas sobre IA, suas implicações em nosso cotidiano, e principalmente os desafios, que não são poucos. Espero que você tenha gostado desse artigo e que ele desperte o seu interesse assim como essas questões despertaram o meu.

Sobre o Autor
Picture of Danilo Pedrelli

Danilo Pedrelli

Co-Fundador da Gestorlearn. Doutor em Física pela Universidade Federal do Pará em 2021. Durante o doutorado foi professor no campus de Abaetetuba da UFPA e realizou parte do seu doutorado em Braga, Portugal, na Universidade do Minho. Em 2020, iniciou sua carreira em ciência de dados, trabalhando em uma fintech de crédito para Pessoas Jurídicas, focadas em empresas de e-commerce. Posteriormente, trabalhou com dados em uma das maiores consultorias de tecnologia do país, e atualmente é cientista de dados em um dos maiores bureaus de crédito do Brasil, atuando em uma área que envolve construção de novos produtos a partir de dados.
Posts Relacionados

Kubernetes+Nginx Ingress

Kubernetes é uma das principais ferramentas atualmente para desenvolvimento, onde é possível orquestrar contêineres e colocar em produção os modelos de machine learning criados pelos

Leia mais »

Posts Recentes

Categorias

Acompanhe a Gestorlearn nas Redes Sociais

newsletter

Insira seu endereço de e-mail abaixo para assinar a newsletter

🔒Prometemos não utilizar suas informações de contato para enviar qualquer tipo de SPAM