“Qual é o futuro do pensamento e do raciocínio que queremos preservar? Se as crianças já estão nascendo em meio a uma quantidade excessiva de telas, preferindo fazer movimentos na tela a segurar um lápis ou uma caneta, precisamos tentar assegurar o que vai vir a ser o novo padrão de raciocínio.” Foi com esse alerta que a cientista da computação Nina da Hora iniciou sua participação no painel Inteligências Artificiais Generativas: Desafiando os Limites da Realidade e da Criatividade na Educação e Pesquisa, na tarde desta segunda-feira (22), primeiro dia do WRNP.
A conversa sobre o uso de ferramentas como o ChatGPT na educação e na pesquisa acadêmica foi mediada pela líder do Comitê Técnico de Ciência de Dados e Inteligência da RNP, Daniela Brauner. O professor da PUC-SP Diogo Cortiz e o professor associado do Departamento de Ciência da Computação da Purdue University (Indiana, EUA) Bruno Ribeiro completaram a mesa. Nina da Hora participou de forma remota.
Para Diogo Cortiz, as inteligências artificiais generativas criam um novo paradigma na sociedade, transformando constantemente a relação entre trabalho e tecnologia. “O ChatGPT foi treinado para dar não apenas qualquer resposta, mas uma resposta que convença os humanos. O ChatGPT nunca vai falar ‘não sei’. Sempre vai gerar respostas convincentes – não necessariamente corretas, mas que sejam plausíveis para que o humano entenda como uma boa resposta”, explicou o professor da PUC-SP.
Bruno Ribeiro deixou claro que vê a inteligência artificial de forma positiva, apesar de seus riscos. “Quando criamos a web, automaticamente pensamos que iria democratizar a informação. Mas se você não souber as palavras-chaves no navegador de busca, você não acha a informação. Com o ChatGPT, é diferente. Vai ser fantástico as pessoas não precisarem saber exatamente as palavras-chaves para procurar a informação de que precisam”, afirmou o pesquisador.
Embora tenha feito alertas, Nina da Hora acredita que os humanos não serão substituídos por máquinas em um futuro próximo. “Sou um pouco cética a essa conclusão [de que seremos substituídos por máquinas] porque o processo de criação não pode ser visualizado apenas no resultado.”
Inteligência artificial generativa e fake news
O uso de IA para produção de fake news também foi destaque na discussão do painel. Na visão do professor da Purdue University, o ChatGPT não amplifica tanto os problemas relacionados a essa questão. “Já há humanos suficientes para criar fake news. O grande problema das fake news é sua disseminação, não sua produção”, afirmou Bruno Ribeiro.
Nina da Hora relembrou o episódio da Cambridge Analytica, que vazou dados pessoais e contribuiu para manipular a opinião pública e ajudar na eleição de Donald Trump, em 2018, nos Estados Unidos. “Esse caso destacou a importância da proteção de dados dos usuários, porque são muito usados para manipular informações e disseminá-las de forma rápida. Este é o ponto: a disseminação de fake news fica tão rápida a ponto de não termos tempo de moderá-las e nos prevenir de seus impactos”, disse.
“A questão mais sensível é que a IA generativa trabalha com imagem, áudio, vídeos, que são super convincentes”, afirmou Diogo Cortizo, relembrando o episódio em que uma imagem gerada por IA mostrava o Papa Francisco trajando um casaco moderno. “Em alguns casos, como neste, mesmo um jornalista especializado de uma revista de moda não conseguiu distinguir e publicou a foto. A tecnologia vai evoluir muito rápido, e muitos cientistas acreditam que estamos entrando em um ambiente da realidade sintética”, concluiu o professor.