Mundo Geek Tecnologia

5 perigos que o ChatGPT representa para a sociedade

Todo mundo publica sobre as maravilhas da ferramenta, mas o que a gente vem abordar aqui é os perigos que o ChatGPT oferece para a sociedade como um todo. Se você acha que a ferramenta é só maravilhas, a gente aborda alguns aspectos que podem ser bem horríveis para muita gente.

Perigos que o ChatGPT pode trazer ao mundo

Precarização (ou até extinção) de profissões já precarizadas

A ferramenta tem capacidade de gerar textos semelhantes aos dos humanos, mas é um robô. Isso significa que profissões como a de jornalistas e redatores, ou do pessoal da comunicação, podem ser ainda mais precarizadas do que já são. Isso pode levar a muitos problemas no mercado de trabalho.

Sucateamento do pensamento crítico e análise

Como não é um ser humano, a capacidade de análise e crítica é completamente ilusória. A ferramenta se abastece de conteúdo já criado. Portanto, não tem capacidade analítica de um ser humano de analisar as coisas com inteligência e de forma ponderada. Se a análise e o pensamento crítico já está em maus agouros neste momento, pode ser que isso se agrave com a popularização e uso da ferramenta.

Desinformação e fake News

Como ele pode criar textos como se fosse um humano, é possível que seja usado para criar as mais criativas e [infelizmente] credíveis notícias falsas. Ou até mesmo se passar por organizações ou indivíduos reais na criação dessas informações. Já pudemos ver o que as fake News podem fazer com nações inteiras. Levando isso em conta, este tópico pode dar muito, muito medo, se pensarmos bem em como isso pode ser automatizado e servir para espalhar desinformação.

Preconceito, discriminação e outras ações perigosas para o convívio social

Como o ChatGPT é treinado com informações de diversos tipos, ele pode aprender a replicar informações como preconceitos e discriminações. Ou seja, é possível que ele use conteúdo discriminatório em diversas aplicações, como assistentes virtuais, sistemas automatizados ou na hora de tomar decisões.

Segurança e privacidade

Esta é uma ferramenta abastecida por modelos, que aprende com Inteligência Artificial (IA). Portanto, os dados usados para treinar ele podem ser acessados por pessoas de má fé. Ou até mesmo ser usado para representar um indivíduo ou outro. O que coloca a segurança e privacidade de muita gente em risco.

Bem, tudo isso são pontos abordados que podem ser erros importantes na ferramenta. Levando isso em conta, cabe a Microsoft, dona da ferramenta, trabalhar arduamente para solucionar esses problemas daqui para frente. O que deve gerar um custo altíssimo, da casa dos bilhões de dólares, no aprimoramento e desenvolvimento dela.

Vamos torcer para as coisas darem certo.

Veja mais sobre tecnologia!

Pin