Foto de Choong Deng Xiang em Unsplash

Recentemente, a IA generativa tem estado na vanguarda dos debates sobre o futuro de quase todos os domínios. Tem o potencial de transformar drasticamente a forma como trabalhamos e pensamos. Em muitos aspectos, a transformação já começou. Ferramentas como o ChatGPT, o Bing e o Bard ganharam força rapidamente e estão a desenvolver-se tão rapidamente que os especialistas do sector e os decisores políticos não conseguem acompanhar.

O cofundador e Diretor Executivo do CMAC, Dr. Wesley J. Wildman, tem sido uma voz de liderança nestas conversas. Em fevereiro, o Dr. Wildman encarregou a sua turma de Dados, Sociedade e Ética na Universidade de Boston de criar um política para a utilização de ferramentas de IA generativa em ambientes académicos. A turma debateu a forma de incorporar a IA generativa no currículo.

O Dr. Wildman reconheceu que era difícil para ele saber como classificar os trabalhos quando os alunos podiam estar a utilizar a IA para gerar as suas respostas. Mas, além disso, queria ter a oportunidade de definir expectativas claras com os alunos sobre a forma como poderiam utilizar a tecnologia para ajudar na sua aprendizagem, sem comprometer as competências de que necessitarão para um futuro impulsionado pela IA.

A coisa mais útil para mim, enquanto professor, foi ouvir os alunos e eles disseram muito claramente: “Precisamos de ajuda para compreender como utilizar a IA generativa. Não queremos prejudicar o nosso conjunto de competências, não queremos que outras pessoas façam batota”.

-Wesley Wildman, WHDH

Rapidamente se tornou claro que uma proibição total não era razoável e deixaria os alunos despreparados para uma carreira depois da faculdade. Fundamentalmente, a política de assistência à IA generativa (GAIA) que a sua turma desenvolveu, estabelece que os alunos devem utilizar IA como o ChatGPT para automatizar tarefas mundanas. Em seguida, são responsáveis por pensar criticamente sobre os resultados da IA e desenvolvê-los para criar algo novo para os seus trabalhos. O também fornece directrizes de classificação para os professores, encorajando-os a verificar a quantidade de IA generativa presente num trabalho e a estabelecer uma “linha de base” para trabalhos que utilizem ferramentas como o ChatGPT.

Em poucas semanas, a política foi adoptada pela Faculdade de Informática e Ciências da Informação. BU Hoje e o Boston Globe noticiou esta abordagem única, que poderá ser a primeira política académica a abordar a IA generativa no país. A política tem potencial para ser adoptada em toda a Universidade de Boston, sendo ajustada com base no feedback específico das diferentes escolas da universidade.

Numa entrevista ao podcast The Crux, o Dr. Wildman explica que o ChatGPT é outra ferramenta para treinar os alunos. As universidades podem sentir-se tentadas a proibir totalmente a IA generativa sob a alçada do plágio, mas isso não é realista. É difícil detetar a utilização de IA generativa e é provável que produza falsos positivos nas verificações normais de plágio. O Dr. Wildman incentiva as universidades a reflectirem sobre o que significa quando falam em educar e formar os seus alunos. A maioria dos professores permite que os seus alunos discutam ideias complexas uns com os outros, encontrem recursos online e tenham uma ideia do panorama do tópico antes e durante o curso. O ChatGPT e ferramentas semelhantes podem ser considerados como uma via para este tipo de descoberta, desde que os alunos possam demonstrar como se envolveram no pensamento crítico para além do resultado que lhes foi dado por uma IA. À semelhança da forma como a escrita ou a imprensa revolucionaram a forma como os seres humanos pensam e aprendem, todos nós precisamos de receber formação sobre como pensar através da lente da IA generativa.

Penso que aquilo de que estamos a falar é [it’s] mais parecido com a imprensa. Está a transformar a forma como as pessoas utilizam os objectos para alargar os seus poderes cognitivos para além das suas próprias mentes. Tornámo-nos muito bons a fazer isso com todo o tipo de ferramentas – calculadoras e por aí fora. Mas a imprensa mudou a forma como pensamos, mudou a forma como nos ensinamos uns aos outros. Mudou tudo na educação. A sua escala é semelhante.

-Wesley Wildman, BU Hoje

Pensando mais amplamente do que o ensino superior, o Dr. Wildman abordou a ideia das políticas do ensino básico e secundário em neste tópico do Reddit AMA. Diz ele,

O ensino básico e secundário depende fundamentalmente da utilização da escrita para ajudar os alunos a aprender a pensar. Uma vez que é impossível bloquear a geração de texto por IA, mesmo que a bloqueie numa rede escolar, talvez tenhamos de reconsiderar os nossos métodos para ensinar os alunos a pensar. No ensino STEM, adaptámo-nos ao ábaco, à régua de cálculo, à calculadora aritmética, à calculadora científica, à calculadora gráfica e ao software de matemática – fizemo-lo reconsiderando as prioridades pedagógicas. A geração de texto com IA é um problema mais profundo, penso eu, mas aplica-se o mesmo princípio. Se o nosso objetivo é ensinar os alunos a pensar, pergunte como o fazíamos antes da imprensa. Era em grande parte através da oralidade, do raciocínio verbal à observação do ambiente. Há outras formas de cumprir o nosso dever para com os nossos alunos, incluindo ensinar-lhes a pensar. Não se trata de uma POLÍTICA; trata-se de um PROCEDIMENTO. Os professores precisam de se antecipar a isto, pensando nos seus objectivos pedagógicos.

A IA generativa é essencialmente um algoritmo com a capacidade de completar frases com base em probabilidades estatísticas. Um novo desenvolvimento designado por transformador permitiu que a IA se tornasse significativamente melhor na reprodução da linguagem humana. Estes algoritmos são treinados com grandes quantidades de dados, de modo a prever melhor quais as palavras que se seguirão umas às outras.

Numa entrevista com o podcast HealthMatters, o Dr. Wildman descreve algumas preocupações éticas que surgem relativamente a estes dados:

  1. Os dados têm de vir de algum lado. Embora algumas empresas sejam relativamente transparentes quanto ao local onde obtêm os seus dados, na maior parte dos casos não o sabemos. Existem também preocupações éticas relativamente à parcialidade, dependendo da origem dos dados.
  2. O conteúdo tem de ser moderado e o algoritmo tem de receber feedback sobre o que é correto e útil. Na maior parte dos casos, esta moderação é externalizada para países do terceiro mundo, onde a mão de obra é muito mais barata.
  3. Existe, naturalmente, um potencial de perturbação económica e de deslocação de postos de trabalho.