Pode Crê

Como Os Algoritmos Moldam O Que Cremos, Consumimos E Chamamos De Verdade

Clecio Almeida Season 2 Episode 27

Send us a text

A nova temporada abre sem rodeios: por que é tão fácil viver numa bolha que nos aplaude? A conversa mergulha na engrenagem que decide o que aparece no seu feed e revela como plataformas medem cada toque, pausa e retorno para maximizar engajamento, não verdade. Falamos sobre a química da confirmação de crenças, a dopamina que torna confortável ouvir o que já pensamos e o preço que pagamos quando trocamos contexto por atalhos emocionais.

Compartilhamos exemplos práticos que quebram clichês. Olhamos para Israel além da guerra, com cenas de rotina que raramente viram manchete, e revisitamos o Rio de Janeiro sem o filtro do pânico, onde a vida comum insiste em existir. Mostramos como a mídia, pressionada por atenção, atende nichos políticos, reforça narrativas previsíveis e transforma exceções em regra porque choque vende. E há um vilão silencioso: os cortes de 15 segundos. Eles tiram debates do contexto, acendem polêmicas artificiais e nos empurram a opinar sem assistir ao todo.

Também oferecemos caminhos simples para recuperar autonomia intelectual. Questionar o que conforta, seguir fontes diversas, ver o conteúdo completo quando importa, pedir dados e links, ajustar o feed de maneira ativa e valorizar o contraditório. Pensar dá trabalho, mas rende lucidez. Se você busca um guia honesto para navegar algoritmos, viés de confirmação e desinformação, essa conversa é um mapa para sair da reação automática e voltar a escolher o que entra na sua cabeça.

Se curtiu, siga o podcast, baixe este episódio e compartilhe com alguém que precisa ouvir outra perspectiva. Deixe sua avaliação e conte nos comentários: qual bolha você vai desafiar hoje?

Support the show

Follow us at Instagram @podclecio

SPEAKER_00:

E aí, tudo bem pessoal? Muito bom estar de volta aqui com vocês depois de umas férias maravilhosas de fim de ano. De verdade, confesso que senti muita saudade de estar aqui com vocês, saudade de sentar, ligar o microfone, falar e refletir, e principalmente saudade de ouvir o feedback de vocês, as mensagens, os comentários, as discordâncias, o pode crer que chegam depois de cada episódio. Mas agora estamos de volta. Antes de entrarmos no assunto, que tal baixar o episódio de hoje? E não apenas ouvir os episódios, mas também baixar cada um deles. Isso nos ajuda a monitorar quantos episódios estão sendo baixados e de qual cidade e país você está nos ouvindo. Muito obrigado! Voltamos oficialmente com season 2 do podcast Pode Crê, e para abrir essa nova temporada eu quero conversar com você sobre algo que afeta absolutamente todos nós, mesmo quem acha que está imune a isso. Hoje eu quero falar sobre o poder dos algoritmos e sobre como eles influenciam não só como a gente consome, mas também o que a gente acredita, o que a gente rejeita e muitas vezes o que a gente pensa que escolheu pensar. Schopenhauer é um filósofo alemão do século XIX, disse algo que resume muito o que acontece nos dias de hoje. A frase é frequentemente parafraseada assim. As pessoas não querem aprender, querem apenas que suas opiniões sejam confirmadas. As pessoas não querem aprender, querem apenas que suas opiniões sejam confirmadas. E se a gente for honesto, isso dói um pouco, porque essa frase não fala de outras pessoas, ela fala de nós. Vivemos numa era em que temos acesso a mais informações do que qualquer geração da história. Mas, paradoxalmente, nunca foi tão fácil viver dentro de uma bolha. E essa bolha não é criada por acaso, ela é criada por algoritmos. E o que são algoritmos e como eles funcionam? Algoritmos são sistemas matemáticos criados para prever comportamentos. De forma simples. Eles observam tudo o que você faz, o que você curte, o que você comenta, o que você compartilha. Quanto tempo você fica olhando um vídeo? Em qual parte do vídeo você para? Se você volta para assistir de novo, se você rola rápido ou devagar, e a partir disso, eles fazem uma pergunta central. O que mantém essa pessoa mais tempo aqui? Porque quanto mais tempo você fica, mais anúncios você vê e mais dinheiro a plataforma ganha. Ou seja, o algoritmo não está preocupado com a verdade nem com o equilíbrio, muito menos com a educação. Ele está preocupado com engajamento. E o que mais engaja o ser humano? Emoção, raiva, medo, indignação, confirmação de crenças. Schopenhauer estava certo. Nós gostamos de ter nossas ideias confirmadas. É confortável, é reconfortante, é quase um abraço intelectual. Quando você acredita em algo e vê um vídeo, uma notícia ou um post dizendo exatamente aquilo que você já pensa, o seu cérebro libera dopamina, o mesmo neurotransmissor associado ao prazer. Discordar cansa, pensar cansa, questionar dói. Confirmar, relaxa. E os algoritmos aprenderam isso melhor do que ninguém. Agora deixa eu te falar de algoritmos nas notícias. Em teoria, o jornalismo deveria informar, mostrar fatos, apresentar contextos, dar múltiplas perspectivas. Mas, na verdade, muitos veículos hoje operam como empresas de engajamento. Vou te dar um exemplo claro. Se você tem uma visão política mais à esquerda e resolve assistir a um canal como Fox News, é provável que você fique irritado. Não porque eles estejam necessariamente inventando tudo, mas porque a narrativa, o enquadramento e a escolha das pautas não dialogam com as suas crenças. E o mesmo vale no sentido oposto. Se você é de direita e for, por exemplo, ver notícias no Globo, no UOL, provavelmente você vai se irritar. Cada canal sabe exatamente quem é o seu público. E eles produzem conteúdo para confirmar o que esse público já acredita. Não para desafiar, não para expandir, mas apenas para manter a audiência. E o seu feed não é neutro. Preste atenção no seu feed. Instagram, TikTok, YouTube, X, Facebook - nada ali é aleatório. Todos os vídeos que aparecem para você obedecem ao perfil dos seus pensamentos. Se você interage com o conteúdo político, verá mais política. Se interage com indignação, verá mais indignação. Se interage com medo, verá mais medo. Se você gosta de notícias de futebol, verá mais notícias do seu time. O algoritmo não pergunta. Isso é verdade? Ele pergunta, isso funciona com essa pessoa? E isso é perigoso, porque aos poucos você começa a acreditar que todo mundo pensa como você, que o mundo é exatamente como o seu feed mostra. E aí nascem os extremos. Vou dar um exemplo pessoal. Minha esposa tem uma prima que joga vôlei em Israel. Agora pare e pense comigo. Quando você ouve falar de Israel nas notícias, o que vem à sua mente? Gaza, sequestros, mortes, conflitos, injustiça, fome e guerra. Tudo isso existe? Sim, claro que existe. Mas você já ouviu falar de um time de vôlei feminino em Israel? Provavelmente não. Por quê? Porque isso não vende. Por exemplo, existe um mall, um shopping center lá em Giesengov Center, em Tel Aviv. É um dos maiores e mais populares shoppings de Israel, com cerca de 420 lojas, restaurantes, cinema, espaço de eventos. É um lugar de encontro, passeio, socialização para jovens e adultos. Sim, existem shoppings em Israel. Além dele, existem outros, muitos outros, como por exemplo Mamila Mall, em Jerusalém, com lojas internacionais, cafés, espaços de lazer que recebem milhares de visitantes todos os dias. E alguns deles funcionam até 24 horas. Existe fast food também em Israel, McDonald's, Burger King, KFC e etc. Embora o menu e o sabor, às vezes, sejam adaptados ao paladar local, como no Brasil, por exemplo. Eu estive lá agora e percebi que alguns McDonald's vendem, por exemplo, pão de queijo. Para os jovens é normal ir a cafés lá em Israel, os menus caseiros para conversar, estudar ou socializar. Muitos cafés, como eu disse, funcionam 24 horas. Mas isso não gera notícia, isso não gera revolta, não gera compartilhamento. Israel é um local vibrante, tem uma cultura moderna, onde o lazer, o encontro com os amigos, acontece, como em Boston, Belo Horizonte, Rio, Berlim, Paris, Tóquio, como em qualquer capital do mundo. Mas isso não gera engajamento. Agora um alerta para nós. Eu quero falar dos vídeos cortados, aqueles vídeos de 15 segundos. Vídeos que são tirados do contexto, fora do contexto, e geram, muitas vezes, pretexto. É um dos maiores perigos da nossa era, os cortes de vídeo. Uma pessoa faz um discurso de uma hora, alguém pega 15 segundos fora do contexto, edita, recorta, coloca uma legenda provocativa e pronto. Você forma uma opinião sobre algo que nunca existiu daquela forma. Quantas vezes eu e você já compartilhamos algo sem assistir o vídeo na sua totalidade? Acontece conosco muitas vezes. Um dia desses me mandaram um vídeo do Billy Graham falando mal das árvores de Natal. Pegaram um vídeo dele, colocaram um áudio como se o vídeo estivesse sendo dublado para o português. E como eu gosto muito do Billy Graham, detectei na hora que ele nunca havia pregado na história sobre árvores de Natal. Então eu fiquei me perguntando, quantos vídeos falsos, fora do contexto, editados, não são espalhados diariamente nas redes sociais? Milhares. Talvez milhões. Um outro exemplo que eu posso dar a você, um exemplo que aconteceu comigo, foi uma viagem que eu fiz ao Rio de Janeiro. Vamos lá, seja honesto. Quando alguém diz Rio de Janeiro, o que vem à sua mente? Arrastão, morte, assalto, milícias, caos, violência. Existem esses aspectos no Rio de Janeiro? Sim, como em qualquer capital do mundo. Essa é a imagem vendida. Eu confesso que eu estava tenso antes de ir. Estava muito preocupado. Mas deixa eu te contar algo. Eu não fiquei só nas áreas turísticas. Eu fui a Bangu, entrei nas favelas, circulei pela cidade. Em quase duas semanas no Rio. Eu não vi absolutamente nada do que eu temia daquilo que era vendido nas mídias. Não vi assalto, não vi gente armada, não vi arrastão. Eu vi pessoas trabalhando, vivendo, crianças brincando. Eu vi policiamento ostensivo. O que acontece no Rio acontece em Sydney, em Tóquio, em Londres, em Nova York, como eu disse, em todas as grandes metrópoles do mundo. Mas o algoritmo não mostra equilíbrio. Ele mostra exceção como regra, porque isso engaja e gera lucro para as empresas. O problema não é se informar. O problema é achar que estamos nos informando quando, na verdade, estamos apenas confirmando aquilo que nós achávamos. Schopenhauer às vezes tem razão. Muitas das vezes nós não queremos aprender, queremos apenas confirmar as nossas opiniões. Se a gente não fizer um esforço consciente para ouvir o diferente, ler o contraditório, questionar até o nosso próprio feed, a gente não pensa. A gente apenas reage. E reagir é exatamente o que os algoritmos querem. Os algoritmos sabem o time que você torce. Sabe que você passou mais de um minuto em um website de motocicletas, que você pesquisou uma viagem para o fim do ano. Eles farão de tudo para te agradar e te vender o que você está ensaiando para comprar. Então fica aí um convite. Desconfie do que te deixa confortável demais. Questione o que confirma tudo o que você já pensa. E de vez em quando, de vez em quando, saia da sua bolha. Porque pensar, eu sei, dá trabalho, mas vale a pena. Muito obrigado por ouvir mais esse episódio. Esse é um momento histórico, sabe por quê? Porque ultrapassamos mais de 4 mil downloads. Conto com você que ouviu esse episódio. Baixe também esse episódio e todos os outros para que cheguemos mais rápido a 5 mil e, quem sabe, se Deus quiser, até 10 mil downloads. Imagine agora se todos que ouvissem o podcast Pode Crê baixassem cada episódio. Seria uma benção realmente para a minha vida, porque eu teria condições de detectar, de monitorar de onde você nos ouve e quantas pessoas estão nos ouvindo. Deus possa abençoar a sua vida e a sua família poderosamente no ano de 2026. Feliz 2026! Feliz aniversário, minha mãe! Hoje é aniversário da minha querida mãe. Obrigado, pessoal. Esse foi mais um episódio do seu podcast, o podcast Pode Crê.

Podcasts we love

Check out these other fine podcasts recommended by us, not an algorithm.

Pode Crê Artwork

Pode Crê

Clecio Almeida