Ciência e Dados
Menu
  • Home
  • Sobre
  • Contato
Menu
Por Que o ChatGPT Nao e Tao Inteligente Quanto Muitos Acreditam

Por Que o ChatGPT Não é Tão Inteligente Quanto Muitos Acreditam?

Posted on 24 de abril de 202324 de abril de 2023 by David Matos

Embora essa tecnologia de Inteligência Artificial seja impressionante, é errado confiar nela 100%. Qual é o problema? Eu tenho alguns pontos para você considerar.

O ChatGPT é um chatbot de IA feito pela empresa OpenAI e é amado por sua incrível capacidade de gerar imitações convincentes da escrita humana.

De fato, quando apareceu pela primeira vez em público em novembro de 2022, a reação foi, no mínimo, uau. Influenciadores como Marc Andreessen e Bill Gates o chamaram de “pura magia” e “a melhor coisa já criada na computação”. Tanto especialistas em vários campos quanto usuários comuns compartilharam esse espanto generalizado.

Eles testaram o ChatGPT para suas necessidades, escreveram dezenas de artigos sobre sua frieza e previram o breve desaparecimento de algumas profissões como obsoletas.

Mas……Espere. O ChatGPT não é tão inteligente (pelo menos por enquanto). A inteligência do ChatGPT é supervalorizada, embora as conversas com ele lembrem as conversas com um humano, o fato é que o ChatGPT não entende o significado do que está “dizendo”.

O ChatGPT é tendencioso, comete erros e fornece informações falsas (nesse aspecto é quase um ser humano….rsrsrs)… Ah, sim! Se você disser que está errado, o chatbot irá admitir. Mas e se você não apontar o erro, aceitando suas informações como corretas?

Abaixo estão alguns grandes problemas com o ChatGPT. Aqueles que acreditam que ele pode resolver todos os seus problemas, substituí-los no trabalho e responder a todas as suas perguntas devem considerar essas questões.

E lembre-se: Em 2017 previram que o Radiologista seria substituído 100% pela IA e que os carros autônomos estariam por aí substituindo motoristas graças à IA. Bom, estamos em 2023 e ainda esperando essas previsões se tornarem realidade. Cuidado com os “Influencers”. Eles querem apenas engajamento em redes sociais e não têm qualquer cuidado ou responsabilidade em suas previsões.

Informações Genéricas Sem Contexto

Problema: ChatGPT não entende a complexidade da linguagem humana; ele apenas gera palavras e não entende o contexto – o resultado: são informações muito genéricas, sem profundidade ou insights e respostas erradas.

Este chatbot é um LLM (Large Language Model) treinado em enormes bancos de dados de texto e, portanto, capaz de gerar texto coerente sobre muitos tópicos. E é incrível!

Mas:

Isso significa que o ChatGPT (assim como outros geradores de texto) não faz nada além de usar os padrões estatísticos desses bancos de dados para prever prováveis sequências de palavras. Ou seja, ele não conhece o significado das palavras e não consegue compreender a semântica por trás dessas palavras. Como resultado, ele gera respostas com base em uma determinada entrada sem contexto, profundidade ou insights únicos.

Como disse David McGuire,

“Neste momento, o ChatGPT parece um papagaio, repetindo frases aprendidas sem entender o que elas significam. É um truque inegavelmente impressionante, mas não é escrever com conhecimento cognitivo. Apenas tem a aparência de escrever.”

O ChatGPT é ótimo para responder a perguntas do tipo “o que é” da Wikipédia, gerar algumas ideias de redação quando você travar, lidar com tarefas repetitivas de baixo esforço (como escrever títulos, meta descrições, postagens de mídia social, resumos de conteúdo) ou revisar seus rascunhos para erros gramaticais.

Mas o ChatGPT não o deixará sem trabalho, pois ainda há um longo caminho a percorrer para igualar as habilidades dos seres humanos.

Para especialistas em tecnologia, como profissionais de SEO e web designers, que criam páginas da Web com conteúdo do ChatGPT:

Lembre-se, o que o ChatGPT gera não é original, mas baseado em informações pré-existentes. Se todos começarem a publicar conteúdo de IA, a maioria dos sites não terá nada além de postagens de imitação e não fornecerão nenhuma informação nova.

O Google considera conteúdo gerado por IA como spam, comparando-o com a técnica de black hat SEO que os especialistas conhecem como rotação de conteúdo.

Informação Falsa

Problema: ChatGPT pode apresentar informações falsas da internet como se fossem verdadeiras.

Como o ChatGPT não consegue distinguir entre declarações verdadeiras e falsas na Internet, às vezes faz com que as informações erradas pareçam verdadeiras. E, convenhamos, nem todos os humanos irão investigar os resultados do ChatGPT mais de perto, pedir referências, verificar essas referências, etc. Eles obtêm a resposta, acreditam que está correta e a usam sempre que necessário.

Esses usuários devem entender que o ChatGPT não é um assistente de IA como Siri ou Alexa. Ele não usa a internet para encontrar respostas.

É um gerador de texto construindo respostas palavra por palavra, selecionando “tokens” que fazem as frases parecerem coerentes. Em seguida, ele “prevê” sequências estatisticamente prováveis de palavras sem nenhuma análise para saber se elas são precisas.

Ele faz uma série de suposições onde algumas podem conter verdade.

Respostas Tendenciosas e Imprecisas

Problema: O ChatGPT fornece respostas tendenciosas ou imprecisas para questões que permanecem controversas (religião, política, aborto, leis de armas, etc.). As informações que ele compartilha sobre raça, gênero ou grupos minoritários às vezes são discriminatórias.

O ChatGPT usa todas as informações (passadas e presentes) para gerar suas respostas de texto. Dado que os humanos escreveram essas informações em momentos diferentes, o chatbot geralmente gera os mesmos vieses que os autores humanos tiveram.

Pode resultar em respostas discriminatórias contra gênero, raça ou grupos minoritários. A OpenAI sabe do problema, tentando mudar isso e fazer o ChatGPT soar politicamente correto. No entanto, ser “politicamente correto” não é igual a ser imparcial.

Tentando “agradar” a todos e não soar discriminatório, o ChatGPT parece incapaz de tirar conclusões lógicas básicas. Suas respostas tornam-se imprecisas ou, novamente, genéricas. Ele não pode fornecer respostas diretas, evitando informações aparentemente lógicas e validadas por pesquisas.

Habilidades de Comunicação Ameaçadas

Problema: ChatGPT nos faz falhar nas habilidades de comunicação. Contando com uma máquina para conversar, perdemos a conexão humana com os outros.

Uma pessoa conversa com o ChatGPT como se fosse um humano. A pessoa faz perguntas, responde às respostas do ChatGPT, tenta convencer uma máquina de que ela está errada e fala com ela como se fosse um diálogo com uma pessoa real. Além disso, a pessoa copia as declarações do chatbot ao discutir questões relacionadas ao trabalho com seus colegas. Sim, tem muita gente fazendo isso.

O problema que vejo aqui é que as pessoas podem começar a confiar demais em uma máquina para conversar, perdendo habilidades genuínas de comunicação de que precisamos para interagir com o mundo.

Pedindo ao ChatGPT para escrever ou dizer algo para eles, as pessoas podem “esquecer” como colaborar com outras pessoas, construir comunicação escrita e pensar criticamente.

Antes do ChatGPT, os professores lutavam contra violações de integridade acadêmica, como usar serviços de redação personalizados para lidar com tarefas. Agora eles veem que um aluno pode pedir ao ChatGPT para escrever uma redação ou qualquer outro trabalho da faculdade do zero, e o resultado pode ser melhor do que o que esse aluno forneceria se escrevesse esse trabalho sozinho.

E?

Acontece que o uso irresponsável do СhatGPT resulta na incapacidade dos jovens de escrever, comunicar seus pontos de vista, usar argumentos lógicos e comprovados, construir conversas e participar de discussões genuínas. O resultado prático disso a longo prazo pode ser muito ruim.

Conclusão

Não me entenda mal. Eu não demonizo o ChatGPT e digo que ele não tem o direito de existir. Só não quero que as pessoas confiem na tecnologia para tomar decisões essenciais e pensem nela como “pura magia” capaz de resolver todos os seus problemas e substituí-los no trabalho.

Os LLMs (Large Language Models) nunca foram a solução para as preocupações humanas. Tudo o que eles fazem é estruturar a experiência humana por meio da manipulação de símbolos. Eu pensaria no ChatGPT e seus análogos como assistentes, não artistas em tempo integral. Mas, quando usados corretamente, eles podem se tornar uma mão útil e uma notável ferramenta de produtividade.

David Matos

Baseado no artigo: Why ChatGPT Is Not as Intelligent as Many Believe

Outras Referências:

Curso Gratuito Fundamentos de Linguagem Python Para Análise de Dados e Data Science (Com ChatGPT)

OpenAI

Compartilhar

  • Clique para compartilhar no X(abre em nova janela) 18+
  • Clique para compartilhar no Facebook(abre em nova janela) Facebook
  • Clique para compartilhar no LinkedIn(abre em nova janela) LinkedIn
  • Clique para compartilhar no WhatsApp(abre em nova janela) WhatsApp
  • Clique para compartilhar no Telegram(abre em nova janela) Telegram
  • Clique para compartilhar no Tumblr(abre em nova janela) Tumblr
  • Clique para compartilhar no Pinterest(abre em nova janela) Pinterest

Relacionado

2 thoughts on “Por Que o ChatGPT Não é Tão Inteligente Quanto Muitos Acreditam?”

  1. Ademir Monteiro disse:
    24 de abril de 2023 às 9:49 PM

    David,

    Excelente as suas colocações e muito importantes para avaliarmos o nosso conhecimento cognitivo.
    Ainda não tive oportunidade de usar o ChatGPT pois prefiro buscar informações com profundidade.
    O que me causa mais medo não é o que o ChatGPT é capaz de fazer. O que mais me causa medo é as pessoas serem incapazes de perceber o que é certo e o que é errado.
    E também concordo que deve ser uma “espécie nova” de papagaio descoberto na “random forest” da Open IA.

    Responder
    1. David Matos disse:
      24 de abril de 2023 às 10:58 PM

      Obrigado Ademir.

      Responder

Deixe um comentário Cancelar resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Assinar blog por e-mail

Digite seu endereço de e-mail para assinar este blog e receber notificações de novas publicações por e-mail.

Buscar

Tags Mais Comuns nos Posts

Agentes de IA Analytics Análise de Negócios Apache Spark AWS Big Data Blockchain Business Intelligence ChatGPT Cientista de Dados Cientistas de Dados Ciência de Dados Cloud Computing Data Lake Data Mesh Data Science Data Scientist Data Warehouse Deep Learning Deploy Engenharia de Dados Estatística GPU GraphRAG Hadoop IA Generativa Inteligência Artificial Internet of Things Linguagem Python Linguagem R LLM LLMs Machine Learning MCP (Model Context Protocol) Metadados Normalização NVIDIA Oracle Pipeline de Dados Predictive Analytics Probabilidade PySpark Python RAG Storytelling

Histórico de Posts

  • maio 2025 (6)
  • abril 2025 (2)
  • março 2025 (4)
  • fevereiro 2025 (8)
  • janeiro 2025 (5)
  • dezembro 2024 (4)
  • novembro 2024 (1)
  • outubro 2024 (1)
  • setembro 2024 (1)
  • agosto 2024 (1)
  • julho 2024 (3)
  • junho 2024 (1)
  • maio 2024 (1)
  • abril 2024 (2)
  • março 2024 (1)
  • fevereiro 2024 (1)
  • janeiro 2024 (1)
  • dezembro 2023 (1)
  • outubro 2023 (2)
  • setembro 2023 (1)
  • agosto 2023 (4)
  • julho 2023 (2)
  • junho 2023 (4)
  • maio 2023 (2)
  • abril 2023 (2)
  • março 2023 (3)
  • fevereiro 2023 (3)
  • janeiro 2023 (3)
  • dezembro 2022 (7)
  • novembro 2022 (6)
  • outubro 2022 (2)
  • setembro 2022 (3)
  • agosto 2022 (2)
  • julho 2022 (2)
  • junho 2022 (3)
  • maio 2022 (1)
  • abril 2022 (3)
  • março 2022 (1)
  • fevereiro 2022 (3)
  • janeiro 2022 (2)
  • dezembro 2021 (1)
  • novembro 2021 (5)
  • outubro 2021 (2)
  • setembro 2021 (3)
  • agosto 2021 (1)
  • junho 2021 (1)
  • fevereiro 2021 (2)
  • janeiro 2021 (1)
  • dezembro 2020 (1)
  • novembro 2020 (1)
  • outubro 2020 (2)
  • agosto 2020 (1)
  • abril 2020 (1)
  • março 2020 (1)
  • fevereiro 2020 (2)
  • agosto 2019 (1)
  • abril 2019 (1)
  • setembro 2018 (2)
  • julho 2018 (1)
  • junho 2018 (3)
  • abril 2018 (1)
  • março 2018 (1)
  • fevereiro 2018 (2)
  • janeiro 2018 (1)
  • dezembro 2017 (1)
  • novembro 2017 (1)
  • outubro 2017 (1)
  • setembro 2017 (1)
  • julho 2017 (1)
  • junho 2017 (1)
  • maio 2017 (2)
  • abril 2017 (1)
  • janeiro 2017 (1)
  • novembro 2016 (1)
  • outubro 2016 (1)
  • setembro 2016 (1)
  • julho 2016 (1)
  • junho 2016 (1)
  • maio 2016 (1)
  • abril 2016 (1)
  • fevereiro 2016 (1)
  • janeiro 2016 (3)
  • dezembro 2015 (4)
  • novembro 2015 (6)
  • outubro 2015 (9)
  • setembro 2015 (9)
  • agosto 2015 (9)
©2025 Ciência e Dados
Menu
  • Home
  • Sobre
  • Contato
 

Carregando comentários...