Publicidade

Saiba por que (e por que não) deveríamos dizer 'obrigado' ou 'bom dia' a ferramentas de IA | Brazil News Informa

Saiba por que (e por que não) deveríamos dizer 'obrigado' ou 'bom dia' a ferramentas de IA | Brazil News Informa

A ideia de que é necessário mostrar cortesia para com uma máquina é tão incomum quanto o fato de que todas as máquinas são programadas para se comportarem educadamente com os usuários. Claro que é mais fácil para eles, porque nunca têm um dia ruim. Mas vale a pena ser gentil com uma IA? E vale não ser?

Em 1996, os pesquisadores Byron Reeves e Clifford Nass desenvolveram o conceito de “educação para a mídia”. Este termo sugere que as pessoas, muitas vezes sem perceber, interagem com sistemas tecnológicos — como computadores e televisões — como se fossem seres humanos. Juntos, eles realizaram vários experimentos com resultados variados.

Os erros da IA

Em um deles, por exemplo, os participantes trabalhavam em um computador e depois eram solicitados a avaliar seu desempenho. Curiosamente, quando a avaliação da máquina foi feita no computador em que trabalharam, as notas tenderam a ser mais positivas, como se evitassem falar mal do computador na sua presença. Em outro experimento, um computador elogiou um grupo de pessoas por executar bem uma tarefa. Esses participantes deram uma nota maior à máquina que os elogiou, mesmo sabendo que esses elogios foram gerados automaticamente.

Desde então, numerosos estudos têm demonstrado que, por um lado, os humanos tendem a antropomorfizar as máquinas e, por outro lado, quando um sistema tecnológico imita qualidades humanas, como a cortesia, os utilizadores percebem um melhor desempenho de sua parte. Esta inclinação, contudo, não resolve o debate sobre a conveniência de ser gentil com a tecnologia.

Ética e utilidade

Primeiro, a discussão focou nas interações com assistentes de voz como Siri e Alexa — com a questão de por que sempre têm voz e nome feminino —, e, recentemente, se estendeu a modelos de linguagem avançados como ChatGPT, Gemini e Claude. O debate divide-se em duas áreas fundamentais: a ética e a prática. Por um lado, analisamos se é ou não apropriado ser educado com um sistema tecnológico e se faz sentido considerar entidades como o ChatGPT como sujeitos morais. Por outro lado, analisa-se se a cortesia no tratamento influencia a sua eficiência operacional.

A primeira parte da questão lembra, pelo menos à primeira vista, a longa discussão ética sobre o estatuto moral dos animais e como devemos interagir com eles. No entanto, existem muitas diferenças biológicas e cognitivas entre animais e máquinas. Ao contrário dos sistemas tecnológicos, muitos animais possuem sistemas nervosos que lhes permitem sentir dor e prazer, indicando que podem ser afetados positiva ou negativamente pelas ações dos outros. Além disso, muitos apresentam sinais de possuir algum nível de consciência, o que implica uma experiência subjetiva do mundo.

Esses seres também podem vivenciar emoções que, embora diferentes das humanas, revelam uma complexidade emocional que afeta seu bem-estar e comportamento. Como as máquinas não possuem essas capacidades biológicas e emocionais, faltam-lhes os critérios necessários para serem consideradas semelhantes aos animais, e muito menos aos seres humanos.

Melhores respostas ou perda de tempo?

Professor de Inovação e Tecnologia da IE Business School, Enrique Dans não é contra ser gentil com as máquinas. O que se destaca, porém, é a importância de saber que uma máquina, sem percepções, emoções ou consciência, não consegue compreender e valorizar a cortesia ou a gratidão expressada.

— Ninguém é contra ser educado com eles, mas ser educado com uma máquina tem pouco valor, porque ela não consegue perceber — comenta.

Um dos argumentos frequentemente apresentados contra esta opinião é que as futuras gerações de IA poderiam atingir níveis de complexidade que lhes permitiriam desenvolver consciência ou mesmo emoções.

— Alguém me contou a piada que prefere dizer por favor e obrigado, para que no futuro tenhamos que nos dar bem com sistemas de inteligência artificial. Isso, honestamente, pertence ao domínio da ficção científica, porque neste momento estamos muito longe de chegar a esse ponto — afirma Dans.

O próximo aspecto do debate é se ser educado com uma máquina é um obstáculo ou um benefício ao interagir com ela. Dans enfatiza a importância de entender que por trás de cada resposta da máquina existe um sistema complexo de processamento de dados, padrões e algoritmos, e não um ser humano dotado de emoções e intenções.

— Tentar tratar um algoritmo educadamente é antropomorfizá-lo, e antropomorfizar um algoritmo é inapropriado. As máquinas precisam de clareza, da definição de um objetivo e da imposição de restrições. Expressões como “por favor” e “obrigado” apenas agregam informações supérfluas que o sistema deve processar, consumindo recursos computacionais desnecessariamente — defende.

Diretor do centro de pesquisa UNED em Processamento de Linguagem Natural e Recuperação de Informação, Julio Gonzalo afirma que, na realidade, em certos sistemas é possível que o usuário receba respostas de melhor qualidade se for mais instruído. Esta circunstância não decorre do fato de a máquina processar emoções ou sentir-se mais inclinada a oferecer um melhor serviço porque se sente respeitada. A verdadeira explicação é que, ao se comunicar educadamente, as mensagens do usuário tendem a se assemelhar mais aos exemplos de interações educadas que o assistente analisou durante o treinamento. Como essas amostras estão geralmente associadas a respostas de melhor qualidade, a polidez pode melhorar indiretamente a qualidade das respostas obtidas.

Gonzalo explica que ao utilizar certos modelos de linguagem como ChatGPT, Gemini ou Claude, é fundamental ter em mente que são sistemas “muito sensíveis à formulação da consulta, a extremos surreais”. Mudanças aparentemente pequenas na estrutura de um comando, como a pontuação ou a inclusão de certas frases motivacionais, podem ter um impacto dramático na eficácia da resposta.

— Separar com dois pontos ou espaço ou usar mais ou menos parênteses na formatação pode fazer a precisão da resposta saltar de 8% para 80% — afirma.

Adicionar “respire fundo e pense passo a passo” também demonstrou melhorar muito a precisão das respostas que exigem raciocínio. Isso acontece não porque o modelo “pensa” logicamente, mas porque essas instruções o levam a padrões de resposta que em seu treinamento foram associados a maior clareza e detalhamento.

Mesmo afirmações que não deveriam influenciar a resposta, como indicar a época do ano (“é maio” ou “é dezembro”) ou elogiar o modelo (“você é muito inteligente”), podem alterar a qualidade das respostas.

— O auge do surrealismo foi alcançado quando se descobriu recentemente que as respostas matemáticas melhoram se o sistema for solicitado a se expressar como se fosse um personagem de Star Trek — conclui o especialista.

Fonte: O Globo


Postar um comentário

0 Comentários