Estupidez natural e estupidez artificial

Os perigos ou os avanços da inteligência artificial, ilustrados pelo ChatGPT e colegas, têm provocado um vendaval mediático que de certa forma me pôs K.O. Afinal de contas, dediquei a minha vida profissional ao processamento da linguagem natural, e agora os modelos de língua gigantescos (MLG) chegaram, e com eles... o quê?

A melhor prova de inteligência humana é o poder conversar, falar em linguagem natural, costumava eu dizer. Agora, não há dúvida de que há tecnologia que o faz, melhor do que muitas pessoas. Jogar zadrez, descobrir remédios para doenças, navegar no espaço interestelar, fazer a separação do lixo, eram coisa inteligentes que alguns sistemas automáticos já faziam ou podiam fazer, mas isso não provocava grandes notícias.

Agora, saber falar sobre tudo e qualquer coisa, baseado no que outros disseram, imitando o estilo de qualquer autor ou falante, isso é que chamou a atenção. O que à partida não me parece mau, visto que nós comunicamos sobretudo através da linguagem natural.

O problema é que, em vez de (sobretudo) reproduzir a inteligência humana, os computadores falantes passaram a reproduzir (e maravilhosamente) a estupidez humana. E o tipo "espertalhão", que, quando não sabe, inventa. Ou que ajuda a "provar" as mais miríficas teorias, se lhe pedirmos. Ora tudo isto é interessante e mesmo louvável, se não fosse ter-se casado com a estupidez humana, que, mal viu um sistem que fala bem, o considera um oráculo que só diz a verdade e que é muito sábio. Ora um modelo de linguagem não sabe o que é a verdade, apenas sabe como dizer (verdades ou mentiras). Além disso não pode ser sábio porque baseia o seu conhecimento num monte de coisas ditas pelas pessoas comuns, a maior parte delas -- por definição -- não sábias.

Ainda por cima, as pessoas tendem a projetar as suas qualidades e/ou defeitos numa máquina que é uma boa interlocutora, e por isso não distinguem o que é simplesmente conversa fiada (ou treinada) de uma conversa com alguém (=ser humano) que tem sentimentos e objetivos.

(Até agora?) um modelo de linguagem não tem um objetivo que não seja conversar (eventualmente satisfazer a pessoa com quem conversa), não tem agentividade. Mas a maior parte das pessoas não percebe isso, e ou aceita tudo o que recebe (porque é "científico"/"objetivo"), ou passa o tempo a tentar descobrir erros factuais -- por estar à espera de factos, em vez de simples conversa.

Por isso, uma pessoa inteligente poderia usar um modelo de linguagem para estudar o estilo, ou mesmo a argumentação, mas não para chegar à verdade. Porque os modelos de linguagem são treinados sobre a língua de muitas pessoas em conjunto, muitas delas com opiniões contrárias e com ideias distintas e com ignorâncias (e saberes) diferentes. O conhecimento não é (infelizmente?) democrático, e juntar mil ignorantes não faz um sábio -- o que faz, é o ChatGPT, ou outro parecido.

Dado isso, porquê esta excitação / movimentação à volta destes modelos? Que vão substituir praticamente todas as profissões, etc., etc. ? Penso que isso é completamente errado. Se a profissão tiver SÓ a ver com o estilo de língua, pode talvez ser ajudada, ou mesmo substituída, por um modelo de língua. Mas se a profissão tiver que ter alguma relação com a realidade, o trabalho não pode ser deixado a uma criatura que só se preocupa com a formulação.

Eu não digo que não haja tarefas inteligentes que seja possível fazer com inteligência artificial -- claro que há, e toda ou praticamente toda a IA séria se tem dedicado a isso. E que coisas como a IA aplicada à guerra são temíveis e têm de ser evitadas.

O que me parece é que o burburinho à volta dos modelos de língua, e o medo de que os estudantes os usem em vez de aprenderem (ou melhor, que deixem de aprender) é um perfeito disparate. O facto de a informação já se encontrar noutro sítio (como no google, ou numa biblioteca) nunca impediu ninguém de apre(e)nder o conhecimento que lá está. Se os modelos pedagógicos vigentes são de tal forma que o que mais interessa é como dizer, e não o que dizer, um MLG pode ser um ótimo aluno. Mas tirando as aulas de retórica, que outras aulas temos em que a forma é mais importante do que o conteúdo?

Mesmo que a questão seja escrever um programa (ai, que o ChatGPT já escreve programas melhor do que os alunos!) é preciso que os alunos os saibam escrever, e testar -- e ler, já agora.

Quando vejo os meus colegas a fazer sessões sobre "o futuro da universidade", com introduções como "a IA (o ChatGPT) vai mudar a universidade", parece-me que estão a esquecer um ponto fundamental: que a IA é uma ferramenta que nós devemos pôr ao nosso serviço. Não é um conjunto de extraterrestres com objetivos determinados. Não tem objetivos, exceto aqueles que lhes dermos.

Que tal usar a nossa inteligência para lidarmos com ela?

 

Publisert 30. mars 2024 20:50 - Sist endret 19. apr. 2024 19:39