Der klassische Spam-Anruf war lange leicht zu entlarven: eine monotone Bandansage, ein holpriges Skript, eine Stimme, die sofort misstrauisch machte. Genau das verändert sich gerade. Mit künstlicher Intelligenz werden Betrugsanrufe glaubwürdiger, persönlicher und schwerer auf den ersten Eindruck zu erkennen. Was früher ein offensichtlicher Robocall war, klingt heute mitunter wie ein echter Mensch. Vor dieser Entwicklung hat Thomas Wrobel, Experte für Spamschutz und Mitentwickler von Clever Dialer, bereits Ende 2025 gewarnt. Seine Prognose damals: Mit Real-Time-Voice-Cloning erreicht Telefonspam eine neue Stufe. Stimmen lassen sich täuschend echt imitieren und in Gesprächen flexibel einsetzen. Was damals noch wie ein Zukunftsszenario klang, zeigt sich inzwischen immer deutlicher im Alltag. 

Quelle: Canva    KI-Anrufe werden zunehmend zur GefahrQuelle: Canva KI-Anrufe werden zunehmend zur Gefahr

Clever-Dialer-Daten zeigen: KI-Stimmen sind im Telefonspam angekommen

Clever Dialer hat Nutzerkommentare aus dem Zeitraum Januar bis März 2026 ausgewertet, in denen eingehende Anrufe mit KI-Bezug beschrieben werden. Bereits für Januar und Februar wurden 48 relevante Reviews markiert. Mit den März-Daten verdichtet sich dieses Bild nun deutlich: Zwischen Januar und März 2026 wurden insgesamt mehr als 130 Nutzerhinweise identifiziert, in denen Nutzer explizit von „KI-Stimme“, „Computerstimme“, „künstlicher Intelligenz“, „virtuellen Assistenten“ oder vergleichbaren automatisierten Sprachmustern im klaren Spam-, Scam- oder Betrugskontext berichten. Schon diese Zahl ist ein deutliches Signal, weil es sich nicht um vereinzelte Ausreißer handelt, sondern um eine erkennbare Häufung ähnlicher Beobachtungen in kurzer Zeit.

Besonders auffällig ist dabei die Sprache der Nutzer selbst. In den Kommentaren tauchen immer wieder ähnliche Beschreibungen auf: „KI Stimme“, „spricht direkt drauf los“, „ließ sich nicht bremsen“, „Automatisierter (KI-)Anruf“, „AI Voice“, „virtueller Assistent“ oder schlicht „Wenn ich schon eine Computerstimme höre!!!“. Diese Formulierungen zeigen, dass Verbraucher sehr klar wahrnehmen, dass sich die Qualität und der Charakter solcher Anrufe verändern. Es geht nicht mehr nur um klassische Bandansagen-Fälle, sondern zunehmend um Gesprächseinstiege, die direkter, dynamischer und zum Teil plausibler wirken.

Hinzu kommt: Die tatsächliche Dunkelziffer dürfte deutlich höher liegen. Denn nicht jeder verdächtige Anruf wird gemeldet, nicht jede betroffene Person schreibt einen Kommentar, und nicht jede KI-gestützte Stimme ist auf Anhieb als solche erkennbar. Gerade darin liegt ein Teil des Problems: Je natürlicher solche Anrufe wirken, desto eher werden sie als „seltsam“ wahrgenommen, aber nicht unbedingt eindeutig als KI-Betrug eingeordnet. Die mehr als 130 ausgewerteten Hinweise sind deshalb sehr wahrscheinlich nicht das ganze Bild, sondern eher ein sichtbarer Ausschnitt eines größeren Trends.

Von PayPal bis Energievertrag: KI-Stimmen tauchen in immer mehr Betrugsmaschen auf

Die ausgewerteten Kommentare zeigen außerdem, wie flexibel KI-Stimmen inzwischen eingesetzt werden. Die beschriebenen Anrufe drehen sich nicht nur um ein einziges Thema, sondern um sehr unterschiedliche Kontexte: Energieverträge, Strompreise, Photovoltaik, Wärmepumpen, PayPal-Zahlungen, Amazon-Konten, Bitcoin- und Krypto-Angebote, Krankenkassen, Zusatzversicherungen, Pflege, Umfragen, Immobilien oder Social-Media-bezogene Verkaufsgespräche. Genau diese Breite macht das Phänomen so relevant. Denn sie zeigt, dass KI-Stimmen nicht an eine einzelne Masche gebunden sind, sondern als skalierbares Werkzeug in ganz unterschiedlichen Betrugs- und Spam-Szenarien funktionieren.

Ein Beispiel dafür ist ein Nutzer-Kommentar:

„Ich bin Ihr virtueller Krankenkassenassistent … Stimme klingt sehr normal für ein virtuelles System“.

In diesem Fall wirkt die Stimme offenbar nicht mehr wie eine plumpe Roboteransage, sondern so normal, dass zunächst Verwirrung entsteht. Ein anderer Nutzer schreibt:

„Phishing Anruf – KI Stimme suggeriert Paypal Support Anruf“.

Hinzu kommen neuere Hinweise aus März wie

„Eine Computerstimme gibt sich als PayPal aus und behauptet, dass ein hochwertiger Einkauf als verdächtig eingestuft wurde“, „Extrem häufige Anrufe, nimmt man ab spricht eine KI Stimme und will Photovoltaik verkaufen“ oder „Ruft an, mittels AI Voice wird nach dem Namen gefragt“.

Auch Kommentare wie „Computer-Stimme angeblich PayPal“ oder „Computerstimme, angeblich gesperrtes Konto mit Bitcoins“ zeigen, wie KI- oder computerbasierte Stimmen an bekannte Ängste und Alltagssituationen andocken: Zahlungsdruck, Kontosperrung, Versicherung, Energiekosten oder Vertragsfragen.

Voice Cloning erkennen: Nutzerkommentare zeigen eine neue Qualität der Täuschung

Besonders spannend ist, dass die Kommentare nicht nur auf Automatisierung hinweisen, sondern auf eine neue Qualität der Glaubwürdigkeit. Der deutlichste Fall stammt vom 25. Februar 2026. Dort heißt es:

„KI-Anruf; stellt sich als ‘Leander Falk’ vor, klingt wie echt. Will zu Energiepreisen beraten.“

Diese Formulierung ist für die Einordnung zentral. Denn sie markiert genau den Punkt, an dem Telefonbetrug eine neue Schwelle überschreitet: weg vom leicht durchschaubaren Spam, hin zu einer Inszenierung, die persönlicher und glaubwürdiger wirkt.

Auch in den März-Daten zeigt sich dieses Muster weiter: Nutzer berichten von KI-Stimmen, die Namen abfragen, sich als Ansprechpartner für Energie-, Immobilien- oder Zahlungsfragen ausgeben oder mit plausibel klingenden Gesprächseinstiegen Vertrauen erzeugen. Genau darin liegt die Brisanz: Schon bevor perfektes Stimmklonen flächendeckend nachweisbar ist, reichen KI-gestützte Stimmen aus, um Anrufe professioneller, ruhiger und glaubwürdiger wirken zu lassen.

Natürlich ist nicht jeder solcher Fälle technisch zweifelsfrei als voll entwickeltes Voice Cloning nachweisbar. Aber genau darin liegt die Brisanz: Schon bevor perfektes Stimmklonen flächendeckend nachweisbar ist, reichen KI-gestützte Stimmen aus, um Anrufe professioneller, ruhiger und glaubwürdiger wirken zu lassen. Die Täuschung muss nicht perfekt sein, um wirksam zu sein. Sie muss nur überzeugend genug klingen, damit Menschen zuhören, sich unter Druck setzen lassen oder sensible Informationen preisgeben. Polizei und Verbraucherzentrale warnen aktuell vor genau solchen Mustern, etwa wenn vermeintliche Support-Anrufe oder Notlagen mit künstlich glaubwürdigen Stimmen inszeniert werden.

Tipps: So schützt man sich vor KI-Telefonbetrug

Eine glaubwürdig klingende Stimme ist heute kein Beweis mehr für Echtheit. Umso wichtiger ist ein bewusster Umgang mit unerwarteten Anrufen.

  • Keine sensiblen Daten am Telefon weitergeben
  • Bei Druck oder Dringlichkeit sofort auflegen
  • Angeblich bekannte Personen oder Unternehmen immer selbst zurückrufen
  • Unerwartete Rückfragen stellen, um Gesprächsabläufe zu prüfen
  • Verdächtige Nummern blockieren und melden
  • Spam-Schutz-Apps zur Unterstützung nutzen

Thomas Wrobel sagt dazu:

„Entscheidend ist nicht, ob eine Stimme echt klingt, sondern ob die Situation plausibel ist. Im Zweifel sollte man immer einen Schritt zurückgehen und den Kontakt selbst verifizieren.“

Warum das Problem 2026 weiter wachsen dürfte

Die Entwicklung zeigt klar: KI macht Telefonbetrug nicht zwangsläufig perfekt, aber deutlich glaubwürdiger. Genau das reicht oft schon aus, um Menschen zu täuschen.

Was sich aktuell in Nutzerkommentaren aus dem Zeitraum Januar bis März 2026 andeutet, dürfte sich in den kommenden Monaten weiter verstärken. Mit zunehmender Verbreitung von KI-Technologien werden auch Betrugsversuche skalierbarer, personalisierter und schwerer auf den ersten Blick zu erkennen. Umso wichtiger werden Aufklärung, Aufmerksamkeit und technische Schutzmechanismen, um sich im Alltag wirksam zu schützen.

Quelle: Clever Dialer