Also meint ihr das die Polizei lügt?
Solange bis es mal einer für nötig gehalten hat, die ach-so-wichtigen Polizeiaussagen im Original zu zitieren, meine ich, dass schlicht ein Fall von mangelnder Medienkompetenz vorliegen könnte.
Warnt die Polizei vor Enkeltricks? Ohne Zweifel. Könnte sie in dem Fall auch vor dem Einsatz von KI warnen? Durchaus möglich, gerade wenn man einen unsachgemäß Gebrauch des Wortes durch Beamte mit mangelndem Technikverständnis in Betracht zieht. Würde das heißen, dass Trickbetrüger mit KI die Stimmen von Enkeln nachahmen? Nein. Das heißt es nicht im geringsten, wie einem Textverständnis verraten könnte und das ist praktisch unmöglich, wie einem Technikwissen oder eigentlich schon simple Logik vermitteln würde, wenn denn sowas wie Medienkompetenz verbreitet wäre.
Was man machen kann und was ggf. auch Geschieht: Die eigene Stimme mittels KI-Verfremdern vor etwaiger Strafverfolgung schützen und sich gleichzeitig die Arbeit erleichtern. Ein Enkeltrickser muss schließlich je nachdem, mit welchem Namen das Opfer auf sein vermeintliches Enkelkind reagiert, das Gespräch in weiblicher oder männlicher Stimmlage fortführen und das auch noch mit fließendem Übergang von der möglichst ambivalenten ersten Ansprache. Sowas kann bei weitem nicht jeder mit seiner eigenen Stimme. Aber jeder kann einen Echtzeit-Sprachmodulator bedienen und die nutzen schon länger Methoden, die als ""KI"" vermarktet werden, obwohl das herzlichst wenig mit einer durch KI nachgeahmten Stimme zu tun hat.
Gerechtfertigt fände ich die Bezeichnung "KI-Stimmen" erst, wenn da ein Text-to-Speech-Programm den kompletten Dialog führt. Idealerweise noch angesteuert von einem Chat-Bot, das hätte dann wirklich was von Betrug mittels künstlicher Intelligenz (und für die Angreifer den massiven Vorteil, dass sie nicht mehr auf ihre eigenen Sprachkenntnisse beschränkt wären). Aber das macht meines Wissens nach (noch) niemand.