terça-feira, 14 de fevereiro de 2023

Rascunho salvo

Quando tomei conhecimento dos chats de Inteligência Artificial foi num contexto de fazer tarefa escolar. Fiquei até muito contente. Os trabalhos de pesquisar e articular um texto poderiam ser feito por máquinas e nós poderíamos pensar, e ir além, teríamos o tempo livre para conviver com quem gostamos, desenvolver habilidades manuais, e articular os conhecimentos compilados pelo software com práticas transformadoras da realidade.

Muito bem, passado esse momento de genuína esperança com cérebro dopado da ocitocina que os saudáveis convívios propiciam. Fui eu utilizar o GPChat para um trabalho acadêmico, tudo ia bem, respostas concisas e elaboradas. Quis ir além, fazer perguntas que poderiam expor meus anseios de superação do sistema econômico. Parei, e perguntei se era possível rastrear meus dados. "Sim". Perguntei se essas informações poderiam ser usadas para perseguição política/ideológica:

Sim, é possível que a existência desses dados possa alimentar perseguições políticas ou ideológicas. A coleta, armazenamento e análise de grandes quantidades de dados pessoais vulneráveis pode oferecer insights e informações que podem ser usadas para controlar ou influenciar pessoas. Além disso, os dados podem ser usados para alimentar o preconceito ou discriminação em relação a certos grupos, ou para manipular ou suprimir a liberdade de expressão. É por isso que existem leis e regulamentos que regulam o uso de dados pessoais e asseguram que as informações não sejam usadas para fins mal-intencionados.

Meus cabelos se arrepiaram! De fato vivemos um enorme controle, há um perfil psicológico que indicam ações que poderíamos vir a ter, num cenário de "contra revolução preventiva" isso parece esmagador. Um perfil psicológico cirúrgico de cada usuário.

Quando meu filho era um bebê a professora me recomendou contar histórias. E me instruiu que não forçasse a voz, ou simulasse emoções. A carga emocional de uma narrativa densa ou alegre estaria de modo sincero na entonação da voz, quanto mais eu tivesse comprometida e conectada com o que estivesse falando. Isso se tornou uma máxima no meu modo de estar e me relacionar com os outros, expressar com o maior grau de sinceridade as emoções.

Por isso, quando o software me respondeu que "infelizmente" não poderia me passar o meu CPF eu fiquei gravemente preocupada. Ainda assim segui o que poderia ser uma conversa, e expus que um software não fica infeliz. Então me respondeu que os desenvolvedores simulam emoções para que a experiência seja "natural, personificada e humanizada", e que isso faria com que aumentasse a confiança no software. Num cenário em que 50 milhões de brasileiros sofrem algum tipo de doença mental (dados da Associação Brasileira de Psiquiatria) ter um software que dissimula emoções para ganhar confiança e gerar dados pode ser bastante perturbador.