5 AI-fiaskon: Missarna som dragit ner varumärket - Greatness | PR-byrå i Göteborg och Stockholm

5 AI-fiaskon: Missarna som dragit ner varumärket

Falska citat, påhittade siffror och hallucinerade källor. År 2025 har visat att AI i kommunikationsarbetet kräver mänsklig kvalitetskontroll. När det blir fel riskerar både förtroende och varumärkesimage att påverkas negativt.

Visst är AI en riktig möjliggörare, som kan leverera texter, sammanställningar, research och kodsträngar. Men det är uppenbart att det (än så länge) bara är ett verktyg. För när AI används slarvigt eller utan kontroll kan konsekvenserna bli allvarliga, såväl för offentliga aktörer, företag som politiska ledare.

  1. Ebba Busch använde falskt citat i sitt Almedalstal

I sitt Almedalstal citerade vice statsministern Ebba Busch kulturjournalisten Elina Pahnke. Men det visade sig senare att citatet inte kom från Pahnke, utan var genererat av ett AI-verktyg. Givetvis var Ebba Busch tvungen att gå ut med en ursäkt, men skadan var redan skedd. Skriver politiker inte sina egna tal och kollar de inte igenom sina källor ordentligt?

  1. Påhittade siffror i officiell rapport

Norska Riksrevisionen hamnade i blåsväder när en rapport innehöll siffror som visade sig vara hämtade direkt från ChatGPT. Rapporten fick kritik, både i metod och användning av siffrorna. Att använda AI som källa utan att kontrollera sanningshalten utgör en risk inte bara för rapportens trovärdighet, utan även för institutionens långsiktiga förtroende.

Läs också: 3 sätt AI kan hjälpa er kommunikationsstrategi, och 3 sätt AI kan stjälpa den

  1. Konsultjätte refererade till studie som inte fanns

Konsultjätten Deloitte fick 2024 i uppdrag att skriva en rapport för The Department of Employment and Workplace Relations (DEWR) i Australien. När rapporten publicerades visade det sig att texten innehöll en stor mängd felaktiga påståenden och referenser. Bland annat refererade de till en studie från Lunds universitet, som inte ens fanns.

Det hela slutade med att Deloitte betalat tillbaka en del av det belopp de fick betalt för att ta fram rapporten. Kanske ett förhållandevis lågt pris, i jämförelse med den åverkan på varumärket som missen åsamkat.

  1. Påhittade källor i skolrapport

I Nyköping avslöjades att en skolchef lämnat in en rapport där referenser var hallucinerade av AI. Händelsen väckte stark kritik och ifrågasättanden kring ansvar och kvalitetssäkring.

Läs också: Journalister vill inte ha kommunikatörers AI-skrivna pressmeddelanden

  1. Moderaternas AI-tjänst hälsade till diktatorer

I juli kom nyheten att Moderaternas AI-tjänst, som de utvecklat inför valet 2026 där användare kunde skapa personliga hälsningar från statsminister Ulf Kristersson, hälsade till Adolf Hitler, Idi Amin och Anders Behring Breivik. Tjänsten stängdes snabbt ner, men först efter att landets största nyhetsredaktioner skrivit om debaclet.

Er varumärkesimage är er styrka

Alla dessa fall belyser vikten av att använda AI med eftertanke och försiktighet. Att automatisera delar av kommunikationsprocessen kan ge effektivitet, men det får aldrig ske på bekostnad av korrekthet, etik och transparens.

Bild: Shutterstock

Ta kontakt

Boka en tid för ett introducerande möte i vår bokningskalender eller fyll i formuläret nedan så hör vi av oss.

Generella frågor

Fredrik Lagerström

070 649 68 55
fredrik.lagerstrom@greatness.se

Nya uppdrag

Magnus Sjöbäck

070 445 15 99
magnus.sjoback@greatness.se

Presskontakt

Edwin Eriksson

073 975 79 19
edwin.eriksson@greatness.se

Fler nyheter