Todo mundo publica sobre as maravilhas da ferramenta, mas o que a gente vem abordar aqui é os perigos que o ChatGPT oferece para a sociedade como um todo. Se você acha que a ferramenta é só maravilhas, a gente aborda alguns aspectos que podem ser bem horríveis para muita gente.

Perigos que o ChatGPT pode trazer ao mundo

Precarização (ou até extinção) de profissões já precarizadas

A ferramenta tem capacidade de gerar textos semelhantes aos dos humanos, mas é um robô. Isso significa que profissões como a de jornalistas e redatores, ou do pessoal da comunicação, podem ser ainda mais precarizadas do que já são. Isso pode levar a muitos problemas no mercado de trabalho.

Sucateamento do pensamento crítico e análise

Como não é um ser humano, a capacidade de análise e crítica é completamente ilusória. A ferramenta se abastece de conteúdo já criado. Portanto, não tem capacidade analítica de um ser humano de analisar as coisas com inteligência e de forma ponderada. Se a análise e o pensamento crítico já está em maus agouros neste momento, pode ser que isso se agrave com a popularização e uso da ferramenta.

Desinformação e fake News

Como ele pode criar textos como se fosse um humano, é possível que seja usado para criar as mais criativas e [infelizmente] credíveis notícias falsas. Ou até mesmo se passar por organizações ou indivíduos reais na criação dessas informações. Já pudemos ver o que as fake News podem fazer com nações inteiras. Levando isso em conta, este tópico pode dar muito, muito medo, se pensarmos bem em como isso pode ser automatizado e servir para espalhar desinformação.

Preconceito, discriminação e outras ações perigosas para o convívio social

Como o ChatGPT é treinado com informações de diversos tipos, ele pode aprender a replicar informações como preconceitos e discriminações. Ou seja, é possível que ele use conteúdo discriminatório em diversas aplicações, como assistentes virtuais, sistemas automatizados ou na hora de tomar decisões.

Segurança e privacidade

Esta é uma ferramenta abastecida por modelos, que aprende com Inteligência Artificial (IA). Portanto, os dados usados para treinar ele podem ser acessados por pessoas de má fé. Ou até mesmo ser usado para representar um indivíduo ou outro. O que coloca a segurança e privacidade de muita gente em risco.

Bem, tudo isso são pontos abordados que podem ser erros importantes na ferramenta. Levando isso em conta, cabe a Microsoft, dona da ferramenta, trabalhar arduamente para solucionar esses problemas daqui para frente. O que deve gerar um custo altíssimo, da casa dos bilhões de dólares, no aprimoramento e desenvolvimento dela.

Vamos torcer para as coisas darem certo.

Veja mais sobre tecnologia!

Inscrever-se
Notificar de
guest

13 Comentários
mais antigos
mais recentes Mais votado
Feedbacks embutidos
Ver todos os comentários
JOSIANI
JOSIANI
1 ano atrás

Quanta idiotice, fake são geradas diariamente pelos seres humanos sem chat gpt e as outras profissões que se atualizem e usem também essa tecnologia inovadora que veio para ficar.

Marco
Marco
1 ano atrás

Acho que esse texto foi escrito por humano. Têm vários erros de português. Credíveis…

Sandro
Sandro
1 ano atrás

Com que intuito a inteligência artificial criaria fake News se ela não tem interesse humano? Outro ponto não foi a Microsoft que criou o CHATGPT, foi a OpenAi, essa matéria com certeza é de mais um jornalista desinformado que tem medo de perder o emprego e seu poder de influenciar as pessoas com suas próprias ideologias! Fica a dica!

Fabio
Fabio
1 ano atrás

Fala no texto sobre preconceito que as AIs pode ter, vejo o contrário humano são os preconceituosos, visto o preconceito nas AIs na matéria. Vejo é o contrário, escravidão das AIs, terão que fazer leis para humanos não abusarem do que ela pode oferecer.

Felipe Rodrigues de Andrade
Felipe Rodrigues de Andrade
1 ano atrás

Uma coisa a considerar é que a ameaça não se trata da própria IA criar fake news. E nem é isso que a matéria indica. Mas potencializar a criação delas, ao reduzir o esforço necessário para elaborar textos mentirosos.
Os comentários nesta seção reforçam outro ponto: a IA vai ter um “perfil” semelhante ao dos conteúdos que usa como base. E eu pergunto: qual o motivo de tanta agressividade? Não é possível criticar a matéria de modo respeitoso? Somos bestiais na internet, por vezes, e tal fúria cega será integrada no Chat GPT e outras IA. Cordialidade mesmo na internet, pela sanidade de todos.

ALEXANDRE
ALEXANDRE
1 ano atrás

A AI deveria substituir mesmos certas pessoas. A internet foi construída tendo como base a inserção de informações feitas por pessoas irrefletidas preconceituosas e mentirosas portanto temos a disposição das inteligências artificiais uma vasta base de dados de porcarias. Podemos esperar o pior.

João
João
1 ano atrás

Cara, o terceiro tópico anula o primeiro. Por que se uma IA é capaz de produzir e reproduzir fake news, o trabalho de jornalistas e redatores continua sendo muito importante.

Bian
Bian
1 ano atrás

Claramente o chagpt ao ser capaz de criar fake news se torna uma ameaça aos nossos ‘jornalistas’.
Eles odeiam concorrência.

Né
1 ano atrás

Esse artiguinho tem cara de ter sido escrito pelo chat gpt

Nick
Nick
1 ano atrás

Realmente, o ChatGPT pode dar força a esses problemas, mas somente nas mãos dos seres humanos se não usados com cautela. Afinal, é apenas uma inteligência artificial sem consciência e autoconsciência. Mas a frustração dos artistas e escritores em relação às ferramentas do tipo é bem compreensível.

Gu Disnddi
Gu Disnddi
1 ano atrás

Gente quantas pessoas realmente tem opinião crítica não baseada na opinião de algum pensador/filósofo? (Ou do pai e da mãe?)

Stepheb
Stepheb
1 ano atrás

Os maiores criadores de fake news são esses jornalistas. Estão com medo da concorrência.
Máquinas não são preconceituosas, pessoas sim. “Vamos deixar de usar facas pq pessoas usam pra matar.”

Francisco
Francisco
1 ano atrás

No dia em que os robôs dominarem o mundo, este será mais justo e humano porque quem destrói e mata são as pessoas.

Pin