Resolvi escrever este texto inspirada pela palestra de Anders Hansen intitulada "On the mysteries of artificial intelligence – do we know what we are doing?" (pergunta retórica, infelizmente não, nós -- pessoas -- não sabemos) a que assisti em junho aqui na universidade, e que foi fenomenal.
Claro está que concordava com as minhas suspeitas e desgostos (de ver a inteligência artificial cada vez a escapar mais da inteligência humana e a "deitar o barro à parede"), mas trouxe muita informação e questões que apenas um matemático poderia formular.
Em particular, ele mostrou que os sistemas podem estar a aprender outras coisas do que aquelas que pensamos estar a ensinar, donde os resultados podem ser imprevisíveis, e até funestos (quando aplicados, por exemplo, em tarefas associadas à saúde humana).
Também mostrou e explicou a falácia qando se diz, por exemplo no reconhecimento de imagens, que o desempenho automático é melhor do que o humano, o que é sempre importante perceber quando se fala de avaliação. Por exemplo, o desempenho humano em reconhecimento de imagens seria de 96% porque não haveria nenhuma pessoa (empregada pelos avaliadores) que soubesse tanto de raças de gatos como de modelos de fórmula 1. Mas em cada domínio, há/haveria sempre pessoas que conseguiriam os 100%, apenas não a mesma pessoa.
Isto não é um texto contra a tecnologia ou contra a tentativa de fazer máquinas que resolvam (até melhor) os problemas que nós humanos conseguimos resolver. Nada disso. É apenas para lembrar que, se não compreendemos o que estamos a ensinar, podemos não conseguir o que queremos, e as consequências podem ser imprevisíveis. Por isso -- segundo Anders Hansen -- é preciso continuar a formar radiologistas humanos...