Tecnologia – 5 perigos que o ChatGPT representa para a sociedade

411
ChatGPT é um site que simula uma conversa humana - Foto: Reprodução

Se você acha que a ferramenta é só maravilhas, a gente aborda alguns aspectos que podem ser bem horríveis para muita gente.


Todo mundo publica sobre as maravilhas da ferramenta, mas o que a gente vem abordar aqui são os perigos que o ChatGPT oferece para a sociedade como um todo. Se você acha que a ferramenta é só maravilhas, a gente aborda alguns aspectos que podem ser bem horríveis para muita gente.

Perigos que o ChatGPT pode trazer ao mundo

– Precarização (ou até extinção) de profissões já defasadas: A ferramenta tem capacidade de gerar textos semelhantes aos dos humanos, mas é um robô. Isso significa que profissões como a de jornalistas e redatores, ou do pessoal da comunicação, podem ser ainda mais precarizadas do que já são. Isso pode levar a muitos problemas no mercado de trabalho.

– Sucateamento do pensamento crítico e análise: Como não é um ser humano, a capacidade de análise e crítica é completamente ilusória. A ferramenta se abastece de conteúdo já criado. Portanto, não tem capacidade analítica de um ser humano de analisar as coisas com inteligência e de forma ponderada. Se a análise e o pensamento crítico já estão em maus agouros neste momento, pode ser que isso se agrave com a popularização e uso da ferramenta.

– Desinformação e fake News: Como ele pode criar textos como se fosse um humano, é possível que seja usado para criar as mais criativas e [infelizmente] credíveis notícias falsas. Ou até mesmo se passar por organizações ou indivíduos reais na criação dessas informações. Já pudemos ver o que as fake News podem fazer com nações inteiras. Levando isso em conta, este tópico pode dar muito, muito medo, se pensarmos bem em como isso pode ser automatizado e servir para espalhar desinformação.

– Preconceito, discriminação e outras ações perigosas para o convívio social: Como o ChatGPT é treinado com informações de diversos tipos, ele pode aprender a replicar informações como preconceitos e discriminações. Ou seja, é possível que ele use conteúdo discriminatório em diversas aplicações, como assistentes virtuais, sistemas automatizados ou na hora de tomar decisões.

– Segurança e privacidade:

Esta é uma ferramenta abastecida por modelos, que aprende com Inteligência Artificial (IA). Portanto, os dados usados para treinar ele pode ser acessado por pessoas de má fé. Ou até mesmo ser usado para representar um indivíduo ou outro. O que coloca a segurança e privacidade de muita gente em risco.

Bem, tudo isso são pontos abordados que podem ser erros importantes na ferramenta. Levando isso em conta, cabe a Microsoft, dona da ferramenta, trabalhar arduamente para solucionar esses problemas daqui para frente. O que deve gerar um custo altíssimo, da casa dos bilhões de dólares, no aprimoramento e desenvolvimento dela.