Inteligências Artificiais: a fonte equivocada do medo e a chave universal das trocas de valor

Inteligências Artificiais: a fonte equivocada do medo e a chave universal das trocas de valor

Por Ciro Leimig

Antes de tudo, nivelemos alguns pontos importantes. Primeiro: o medo é saudável, desde que não paralise. Evita perigos desnecessários e já preservou as vidas de muitos espécimes de muitas espécies antes da nossa, por milhões e milhões de anos, favorecendo quase sempre os mais cautos na seleção natural. Segundo: o que é Inteligência Artificial?

A definição resumida do ChatGPT diz que uma IA generativa LLM (large language model) é “um sistema que usa algoritmos para criar conteúdo original, como texto, imagem ou música, treinada em grandes conjuntos de dados para aprender padrões e produzir resultados criativos e realistas“. Eu prefiro a definição que construí inspirado pelas referências dos professores André Neves e Filipe Calegario, pesquisadores da Universidade Federal de Pernambuco, de que uma IA generativa é uma calculadora probabilística de semântica, que tenta escolher sempre a próxima palavra (ou pixel, ou nota musical) mais apropriada. 

Outra mente brilhante da tecnologia no Brasil que tem abordado muito o tema, Silvio Meira, no artigo ‘E AÍ, IA…‘, pontua que não se trata de “(…) mágica, nem inteligência: são algoritmos preditivos, que usam parte relevante do conteúdo da web e outras fontes para criar texto“. Nesse artigo professor Silvio destaca os desdobramentos da tecnologia e podemos entendê-los como a motivação dos receios de boa parte dos profissionais que até recentemente não imaginavam que veriam suas atividades técnicas e criativas ameaçadas por ‘robôs de chat’.

Extraindo o sumo: há um repositório de dados gigantesco (conhecimento humano acumulado, em todas as esferas de atividade) e há uma demanda constante, diária, de que alguém ou alguma coisa acesse esse repositório e encontre nele dados relevantes, evidências capazes de embasar decisões práticas (jornalistas escrevendo um artigo, médicos prescrevendo receitas, programadores codificando). Então, o que está acontecendo é que algoritmos capazes de aprender numa velocidade muito maior do que a nossa estão intermediando esse nosso conhecimento, acessando, triando e devolvendo as informações relevantes e necessárias no nosso dia a dia, a partir da linguagem, tornando este processo mais rápido, barato e fácil de gerenciar. E aqui mora o X da questão: os LLMs soam como ouro para o mercado, que mira resultados do ponto de vista das pessoas jurídicas, estabelecendo uma relação direta entre o ‘capital tecnológico’ e o ‘capital humano’… É uma relação justa? Poderíamos aprofundar por páginas, considerar se deveríamos nos enxergar como ‘capital’ e adentrar na problemática da ‘coisificação’ de pessoas, mas mantenhamos a superficialidade prática. 

Há pelo menos uma grande diferença na forma como nós e os algorítmos realizamos essas atividades de resgate e aplicação do conhecimento humano, que deveria ser levada em conta pelos agentes sociais e de mercado. Quando um médico faz um diagnóstico e prescreve uma receita, ou quando um jornalista escreve uma crônica, há uma instância externa reguladora dessa atividade, a ética. Sim, muitas vezes negligenciada por aqueles que não levam juramentos a sério, mas que, ainda assim, podem responder pelos seus atos diante da relação ética estabelecida entre representantes da sua profissão e a sociedade. Onde está a ética reguladora das atividades desempenhadas pelas inteligências artificiais? 

Enquanto, há milhares de anos, estamos habituados a mediar e ajustar as relações profissionais entre pessoas, desconhecemos os desdobramentos éticos dessas atividades habilitadas por IAs e talvez esteja nessa lacuna lógica a fonte dos nossos medos. A ética universaliza as preocupações unilaterais e potencializa relações mais saudáveis de trocas de valor. 

Talvez um dia tenhamos a oportunidade de lidar com Consciências Artificiais (CAs), potencialmente deriváveis das LLMs e de outras tecnologias embrionárias ou que ainda surgirão. Até lá, não serão as Inteligências Artificiais que se autorregularão e mediarão nossa relação com elas. Talvez, acessando os conteúdos certos, uma IA possa indicar caminhos, mas seremos nós quem decidiremos ou não por oficializá-lo juridicamente e percorre-lo. Logo, não deveríamos temer as inteligências artificiais ou qualquer outra tecnologia inconsciente, mas temer a nossa própria (des)inteligência e lutar por relações de trocas de valor mais conscientes. Ética: é preciso virar essa chave!

imagem de capa: poema concreto de minha autoria: ‘Relíquia na caixa transparente’

Confira também

Deixar um comentário

Portal Design Culture

O Design e a educação movem nossas vidas.

Orgulho de ser de Pernambuco.

Uma empresa embarcada no Porto Digital

Hospedado na Imaginare Digital.

inspiração Em seu e-mail

© Portal Design Culture 2024  – Termos de uso e política de privacidade

Layout por: Estúdio IP/M

Desenvolvido por: O Plano A