Transkript zum Nachlesen und Suchen
                            Ist künstliche Intelligenz im Finanzbereich überhaupt sicher? Worauf müssen Anwender achten, wenn es um ihr Geld geht? Die Antworten von Finanzprofi Marcel zeigen, was in Europa anders läuft und warum das gar nicht so schlecht ist, wie man oft hört. Vor allem für dein Geld. Schau dir das an. Aus der Veranlagungspraxis. Hallo, mein Name ist Michael. Ich stelle stellvertretend für dich, für euch naive Fragen zum Thema Geld und Geldanlage und unser Finanzprofi Marcel liefert schlaue Antworten aus der Praxis.
 Ich versuche es zumindest, damit dir mehr Geld bleibt.
 Unser Thema heute ist der zweite Teil von KI und es dreht sich heute um die Sicherheit von KI in der Finanzanlage, Finanzberatung und allem, was mit Finanzen und Geldanlage zu tun hat. Wie können wir sicherstellen, dass künstliche Intelligenz und die Anwendungen daraus sicher sind, denn Geld ist ja ein sehr sensibles Thema. Im ersten Teil ging es um die Qualität und in diesem Teil geht es um die Sicherheit. Und da starten wir gleich rein, wie Marcel immer sagt. Was muss man denn beim Thema Sicherheit mit KI beachten? Da hört man ja die wildesten Sachen. Worauf muss ich aufpassen, wenn es um Geld geht?
 Ganz, ganz wichtig ist, dass es reguliert ist. Das heißt, wir haben glücklicherweise in Europa die Situation, dass wir einen KI-Act auf EU-Ebene haben. Das bedeutet, dass vieles definiert ist. Das Wichtigste vielleicht zuerst: Menschenrechte werden eingehalten, also die Grundrechte der Menschen. Es soll kein Social Scoring geben und keine Massenüberwachung entstehen. Das heißt, für solche Zwecke darf KI nicht genutzt werden. Da haben wir Rahmenbedingungen auf EU-Ebene und das Ganze soll auch verständlich sein für die User. Das heißt, es ist ein Erfordernis, dass das Ganze nachvollziehbar ist. Der User soll verstehen, was mit seinen Daten passiert.
 Okay, weil man kennt ja aus Amerika, dass die meisten KIs so sind, dass man nicht weiß, was reingeht und man nicht weiß, welche Daten gespeichert werden. Und das ist alles ein bisschen intransparent. Und deshalb hat die EU beschlossen, einen eigenen KI-Act zu machen, also Vorschriften, wie man in Europa mit KIs umgehen muss. Und da gibt es auch viele, die denken, das bremst ein bisschen die Entwicklung der künstlichen Intelligenz. Aber vielleicht ist es ja was Gutes. Also es hat Für und Wider und es entspricht mehr den Menschenrechten oder eher den Bürgerrechten, also das Recht auf die eigenen Daten und Datensicherheit.
 Und es gibt eben auch, also die Sorgfalt ist so, sicher gegeben und es gibt sehr, sehr sensible Strafen. Das heißt, wenn dagegen verstoßen wird, dann haftet der Dienstleistende, also die Gesellschaft, die das Ganze erstellt hat oder den Usern zum Gebrauch angeboten hat. Und die Strafen sind auch direkt nicht nur in dem Land, sondern die sind weltweit gefasst. Da ist sehr, sehr weitgreifend gearbeitet worden. Da gibt es Umsatzstrafen, da möchte man nicht dagegen verstoßen. Das heißt, da gibt es auf Unternehmerseite ein klares Incentive aus wirtschaftlicher Ebene, das Ganze gut abzubilden. Wenn man auf der einen Seite wirklich einen wirtschaftlichen Schaden erleiden würde, auf der anderen Seite ist es natürlich ein riesiges Vertrauensthema zwischen Unternehmen und User.
 Und die DSGVO spielt ja da auch mit rein. Die gilt ja für alles, also dementsprechend auch für künstliche Intelligenzen.
 Genau, und das ist auch wichtig. Das heißt, DSGVO kennen wir ja schon länger. Ich weiß gar nicht, wann sie wirklich breitgefächert in Kraft getreten ist, aber das greift natürlich ineinander. Das heißt, diese Compliance miteinander, also diese Verstrickung besteht in Europa komplett und damit ist man auf DSGVO-Seite schon sehr gut besichert. Man kann ja Daten anfordern, kann das Ganze löschen lassen und der KI-Act baut darauf auf. Das heißt, der Schutz besteht und nicht nur die DSGVO ist anwendbar und nachher in der KI alles drin ist und du nichts machen kannst.
 Die Zuhörer ahnen es ja schon, dass wir da was entwickeln in diese Richtung. Und du bist ja dann noch tiefer drin als ich. Jetzt ist die Frage, glaubst du, schränkt das die Möglichkeiten ein? Also hemmt es das, was möglich wäre? Oder ist es eher gut, dass es solche Einschränkungen gibt in Europa? Aus Betreibersicht jetzt einmal gesprochen.
 Ich würde aus beiden Sichten sagen, also Betreiber- und Nutzersicht, dass es gut ist, wenn es ein Regelwerk dafür gibt, weil das die Vertrauensbrücke bauen muss. Das heißt, man muss sich da vorstellen, die KI ist seit 2020 circa relevant für den Markt geworden. Das heißt, davor war sie rein wissenschaftlich genutzt. Und wir haben da wirklich diese bekannten Quantensprünge. Das heißt, wir können Informationen so schnell verarbeiten, wir können so schnell lernen, wir können so schnell bessere Entscheidungen treffen. Und jetzt gilt es einfach, eine Massenadoption herbeizuführen. Und die Adoption kann nur über Vertrauen gehen. Das heißt, ich glaube, es ist für Unternehmen und für Nutzer gut, wenn da wirklich eine Rechtslage dafür geschaffen wurde, was für beide Parteien gut ist. Vertretbar ist. Das heißt, ich würde die Einschränkungen auf Unternehmensseite nicht so gering sehen wie einen potenziellen Vertrauensbruch, der sich bei diesen Nicht-Einschränkungen ergeben könnte.
 Also du findest es gut, auf gut Deutsch. Ja.
 Etwas rumgeredet, aber ja.
 Es ist ja mehr aus Nutzersicht und es ist natürlich super, wenn es da genaues Regelwerk gibt. Und das auch im User-Sinne gedacht ist. Und das Ziel soll ja sein, dass der User am Ende davon was hat, weil sonst wird es sich ja für das Unternehmen auch rächen.
 Absolut. Und das Schöne ist ja gleicher Rechtsrahmen. Das heißt, dadurch, dass wir das Ganze auf EU-Ebene haben und die DSGVO natürlich auch Länder- und EU-Recht sind, ist da wirklich alles in sozusagen einem großen Buch drin, also im Rechtsbuch in dem Fall, bildlich gesprochen und ich habe nicht das Problem, dass es auf DSGVO-Ebene zum Beispiel anwendbar wäre, aber ich bin auf der anderen Seite nicht in Europa, wenn ich eben einen Anbieter habe, der was nicht in Europa wäre, weil dann gibt es ja diesen KI-Act der EU logischerweise nicht, das heißt, da haben wir andere Probleme. Deshalb natürlich auch das Ganze in diesen Rahmen belassen, dann bin ich wirklich rechtlich gut abgesichert.
 Sehr gut, das bringt uns nämlich gleich zum nächsten Punkt. Wie ist das jetzt nicht mal das rechtliche Ding, aber wie ist das technisch? Gibt es in Europa überhaupt vergleichbare oder so gute KIs wie in Amerika?
 Ja, absolut. Oder China?
 Weiß man ja nicht.
 Ja, also Weltmarktführer ist der Open AI, das kann man ganz klar sagen. Allerdings gibt es auch in Europa super Anbieter für Sprachmodelle, also LLMs. Und die Qualitätsunterschiede, da reden wir wirklich von Nuancen. Da gibt es ganz große Anbieter und man muss ja auch sagen, dass nicht jedes Sprachmodell für jede Anwendung immer das Nonplusultra ist. Ich glaube, man weiß selbst aus dem Leben, dass es Vielfalt gibt und nicht jeder, also one fits all. Das trifft selten zu. Das trifft bei der Geldanlage zu, das trifft aber wahrscheinlich beim Essen, bei Sport und auch bei KI-Modellen zu. Das heißt, da gibt es natürlich spezialisierte Anbieter dieser Sprachmodelle. Wir haben sogar in Österreich aus Forschungssicht sehr viel dazu beigetragen. Ich glaube, da ist auf der Uni Linz sehr viel passiert. Da in Frankreich gibt es da sehr interessante Anbieter, was das Ganze eben für Unternehmen zugänglich macht.
 Okay, und die können auch durchaus mithalten, vor allem wenn es Forschung, Grundlagenforschung, glaube ich, sogar in Österreich gibt dazu, das ist ja auch nicht so.
 Hoch anerkannte, ja.
 Und du hast natürlich den Vorteil, wenn du was Europäisches verwendest oder einbinden kannst, dann denken die das gleich mit, diese ganzen DSGVO und KI-Acts.
 Oder? Müssen sie ja.
 Also das ist halt schon viel automatischer. So wie wir es jetzt bei den neuen Apple-Produkten, wo sie ja groß angekündigt haben in Amerika. Ja, Apple Intelligence, glaube ich, heißt es. Und dann gibt es es in Europa nicht. Und jetzt gibt es das erste Mal, glaube ich, für die Schweiz, weil die halt nicht EU sind. Und dann der KI-Act noch nicht gilt. Noch in Klammer. Ja, das ist natürlich schlecht. Und wenn die das aber schon von Grund auf mitdenken, okay, das ist so und das einfach für die ganz normal ist, dann hast du natürlich große Vorteile.
 Absolut. Das heißt, die wissen sofort die Rahmenbedingungen. Für andere Anbieter sind es auf dem Markt Eintrittsbarrieren. Und das kann natürlich, auf der einen Seite ist Wettbewerb genug da in Europa, um solche Sprachmodelle anzubieten, dass irgendwelche Unternehmen, Dienstleister Anwendungen darauf bauen können. Das heißt, das ist nicht das Problem. Und wenn man natürlich in einem Land sitzt, wo es anwendbar ist, dann wäre man blöd, wenn man für einen anderen Kontinent jetzt in dem Fall das produziert.
 Was gibt es noch für Sicherheitsmaßnahmen, jetzt unabhängig von denen, die da quasi vorgeschrieben sind? Technische Natur vielleicht?
 Genau, technische Natur ist ganz einfach. Es ist ja schon seit Jahren End-to-End-Verschlüsselung, dass da Ganze am Transport sozusagen nichts passiert, dass da nicht irgendwo ein Leak da ist zwischen Dienstleistung also. Anwendermodell und in dem LLM, wo das Ganze natürlich dann auch technisch weiterverarbeitet wird. Das heißt, das hat man und man hat auch immer eine Pseudonymisierung. Das heißt, das Sprachmodell selbst kann das Ganze pseudonymisiert erhalten. Weiß dann nicht, das ist der Hans Müller, sondern da ist nachher irgendein Code dahinter. Das können Hashes sein, das kann Binär sein, das kann was auch immer sein. So technisch bewandert bin ich da nicht, aber es ist verschlüsselt. Nicht der Name, der Hans Müller möchte genau das machen, sondern das Ganze ist in Computersprache.
 Okay, also das entspricht modernen Standards sozusagen, die es ja da schon gibt.
 Genau, und da muss man ja dazu sagen, nicht nur die modernen Standards auf technischer Ebene werden eingehalten, sondern wenn sowas auf den Markt kommt, dann muss man natürlich auch mit der jeweiligen Aufsichtsbehörde zusammenarbeiten. Das heißt, Österreich ist zum Beispiel FMA. In Deutschland wäre es die BaFin. Da ist natürlich auf der einen Seite Interesse gegeben, dass einfach diese Transparenz am Markt steigt, dass die Finanzmarktaufsicht, die was für einen funktionierenden Finanzmarkt sorgen soll, auch zuständig ist. Und da wird das nachher quer gecheckt auf beiden Seiten.
 Okay. Ja, das klingt eh alles gut.
 Ja, also da müssen wir das nächste Mal sonst noch den Techniker mitbringen zum Podcast. Aber da ist...
 Man soll es ja auch verstehen. Es gibt noch eine fachliche Seite, oder?
 Bitte?
 Es gibt noch, weil du jetzt gerade den Techniker ins Spiel bringst, es gibt tatsächlich noch eine fachliche Seite.
 Genau, also wenn wir jetzt genau bei unserem Thema bleiben, es gibt natürlich auch jetzt bezogen auf Bankgeschäfte, Vermögensberatung gibt es natürlich auch Rechtsprechungen und ich bleibe jetzt bei Sprechungen, auch wenn ich nicht weiß, ob es... korrekt ist. Also es gibt natürlich Gesetze auch, wie das Bankgeheimnis. Bei uns ist es so, in der Vermögensberatung, dass es dort zum Beispiel Standesregeln gibt, da ist natürlich auch klar definiert, ich habe es sogar in Paragraph rausgeschubt, in Paragraph 12, das kann man auch bei der WKO zum Beispiel nachlesen, dass Berufsangehörige immer über die Daten schweigen müssen. Ich lese es genau vor, schweigen immer über den Rahmen ihrer Berufsausübung anvertrauten Angaben ihrer Kunden, auch nach Ausscheiden aus dem Berufsstand oder Zurücklegung, soweit keine gesetzliche Bestimmung dem entgegensteht. Das heißt, wenn da jetzt irgendein Anbieter ist, der was jetzt in dem Gewerbe, in der Branche tätig ist, der kann nicht sagen, ah, die Person XY hat da eingegeben, lustige Frage, das erzähle ich meinem Freund, da kann ich auch noch beim... Bier trinken, Sport, was auch immer, was Lustiges erzählen. Nein, das geht auch nicht. Das heißt, auch die Anwender oder die Anbieter sind da zum Schweigen verpflichtet.
 Ist auch gut so, aber das ist wie im echten Leben auch. Man will ja auch nicht, dass die Bankberaterin irgendwas erzählt. Weil es halt ein total sensibler Bereich ist, wie Medizin oder Gesundheit.
 Ja, dass man zum Hausarzt geht und jeder weiß, okay, der hat fünf Kilo zugenommen, das ist natürlich schlecht.
 Oh, das sieht man.
 Immer Obersizedress, also nachher anziehen.
 Das sieht man jetzt schon von mir. Ich bin sehr der Mehlspeise zugewandt.
 Das ist gut, ja.
 Ja, sehr gut. Das mit der Mehlspeise nicht, aber der Rest ist super. Finde ich gut, dass wir da auf der sicheren Seite sind. Europa finde ich schon einen Vorteil, auch wenn es jetzt vielleicht manche als Einschränkung sehen, aber es ist im Sinne des Konsumenten und dann im Endeffekt ja auch wieder im Sinne der Unternehmen. Und vor allem der Gesellschaft, finde ich. Was uns zum gesellschaftlichen Aspekt bringt. Wie schätzen du das ein? Wie wirkt dir das auf die Gesellschaft aus, dass die Sicherheit so streng ist bei künstlicher Intelligenz in Europa?
 Ich habe es ja vorhin schon erwähnt. Das heißt, desto besser, dichter, also durchdringender und schneller eine Adoption geschieht. Und das ist halt mit Vertrauen und Sicherheitsstandards einhergehend. So schneller können Menschen profitieren. Also sowohl Unternehmen als auch Anwender. Das heißt, man braucht ja nur den Fall hernehmen von vor, ich weiß nicht, 30, 40 Jahren, wenn man irgendwo 1990 in der Bank gesessen ist und ein Angebot hatte, dann hat man das Ganze geglaubt und wenn man Rechtstexte nachlesen wollte, dann ist man vielleicht in eine Bibliothek gegangen oder zum Gericht gegangen. Ich kann es nicht mehr bewerten. Das heißt, da hat sich schon ganz viel getan, dass das Ganze mal online gekommen ist. Und jetzt mit KI ist natürlich die Interpretation dieser Informationen noch einmal viel, viel leichter. Das heißt, ich muss dann nicht Dr. Google fragen, was da die Rechtsgrundlage dazu ist, sondern ich kann zum Beispiel einfach mit dem Angebot das Ganze erklären, hochladen, was es auch immer ist und ich bekomme alles dazu und kann als Anwender wirklich einfach den Nutzen mitnehmen, habe einen schnelleren Weg und habe dadurch normalerweise auch bessere Entscheidungen. Das heißt, diese Sicherheits... Ebene soll bei der Adoption helfen.
 Weil du gesagt hast, die Geschwindigkeit ist natürlich ein großer Vorteil für Nutzer, aber es ist in dem Zusammenhang, finde ich ja auch total erstaunlich, wie schnell die EU in dem Fall der KI so ein gesetzliches Regelwerk geschaffen hat. Wenn man das vor allem mit anderen Dingen vergleicht, die eher länger brauchen können. Und auch vielleicht drängende Gesellschaftsthemen werden, aber da waren sie wirklich superfraud, finde ich.
 Ich glaube, es ist auch im Sinne der Massen, also ich habe mir den Launcher angeschaut vom Tesla-Bot, also Robot, und das ist natürlich wirklich aber befremdlich. Also ich finde das grundsätzlich, bin ich dekaffin, finde es cool. Aber ich bin schon froh, wenn ich jetzt auf EU- oder auf Europaebene denke, dass es ein Regelwerk dafür gibt. Also ich hätte auch gerne einen Tech-Robot von Tesla, der was Sachen macht. Ich bin aber sicher ein bisschen suspicious, wenn ich da dem irgendwas sage oder einen Auftrag gebe, was der wirklich an Daten von mir verarbeitet hat oder nicht. Ist natürlich jetzt ein Extrembeispiel. Aber ich bin sehr, sehr froh, dass da eine Regulierung besteht.
 Besser ein Roboter als Frankreich oder so. Genau.
 Wobei, wenn es so wie mit den Autos ist, dann ist es wieder schwierig.
 Da muss man aufpassen.
 Also immer Abstriche machen.
 Ja, es gibt immer verschiedene Communities, die das besser finden oder das. Apropos Community, das bringt uns zur Frage der Community. Wie kann ich als Privatperson sicherstellen, dass meine Daten bei Fintech-Unternehmen sicher sind?
 Ganz klar lesen, was da geboten wird. Das heißt, wenn ich jetzt bei Fintech-Unternehmen schaue, was da an Daten verarbeitet wird, schaue ich mir natürlich als erstes an, sind die jetzt zum Beispiel in Österreich. Das heißt, wird da alles... Passend findet man meistens in den Datenschutzeinstellungen, wird da passend alles abgebildet. Ich kann da auch anfragen, welche Daten speichert ihr von mir? Das muss natürlich offengelegt werden. Ich kann auch die Datenlöschung beantragen. Ich sollte einfach auf Rechtsebene einmal schauen, ist das ein Unternehmen mit einer entsprechenden Gewerbeberechtigung und ist es in dem Raum operierend und rechtsfähig, in dem es das Angebot hat.
 Oder ist es sauber mit? Datenschutzverordnung und so weiter.
 Also wenn es keine gibt, dann bitte gleich auf die nächste Seite geben. Und Datenschutzverordnungen sind meist auch sehr, sehr lang. Das ist natürlich wieder mühsam zu lesen. Das ist aber auch gut, weil da viele, viele Aspekte abgedeckt gehören. Und da sind auch meist Dinge verlinkt. Das heißt, da hat man auch die Rechtsgrundlagen. Und wenn das einfach ein wichtiges Thema ist, dann muss man sich einfach kurz die Zeit dazu nehmen. Man kann natürlich einmal flott drüber schauen. Oder man kann sich vertiefen. Und das Wichtige ist einfach, dass da wirklich man merkt, dass von dem jeweiligen Unternehmen das Ganze ernst genommen wird. Das heißt, wenn da Datenschutzvereinbarungen oder Einstellungen innerhalb von drei Absätzen beschrieben sind, dann ist das natürlich schön. Aber die Frage ist immer, inwieweit es dann wirklich auch als Schutzfunktion vollkommen zutrifft.
 Aber man kriegt schon mal einen ersten Eindruck, ist das ordentlich dokumentiert oder nicht. Ja, dann bleibt eigentlich nur noch der Tipp der Woche, oder?
 Tipp der Woche, das war jetzt sowieso die Steilvorlage von dir. Das heißt, achte wirklich auf Transparenz bei den Anbietern. Wenn du einen Anbieter auswählst, sei das jetzt einfach ein Fintech-Unternehmen oder vielleicht sogar eine Mischung aus Fintech oder KI, schau darauf, dass du siehst, was ist die Datengrundlage, was wir im letzten Podcast besprochen haben. Was sind die Rechtsbedingungen? Das heißt, ist das Sprachmodell, ist das in Europa, greift die KI, der KI-Act, greift die DSGVO, die sollte immer greifen, wenn das ein österreichischer Anbieter zum Beispiel ist. Und bin ich da wirklich sicher? Wenn nicht, einfach mal nachfragen. Hilft auch, bevor du was reingibst und es dann bereust. Und dann kannst du mit dieser Transparenz das Ganze auch ohne Bedenken nutzen.
 Okay. Ja cool, es bleibt spannend. Wir wissen jetzt, die technischen Dinge klingen sehr vielversprechend. Die sicherheitsrelevanten Aspekte sind auch berücksichtigt. Jetzt ist die Frage, was kommt da und wie lange dauert das noch? Kann man da schon was sagen oder müssen wir die Zuhörerinnen und Zuseher noch ein bisschen auf die Folter spannen in dem Bereich? Ich glaube, ich kann ja noch nicht allzu viel verraten, aber ich glaube, es lohnt sich, das Warten.
 Also es wird länger dauern, wie gehofft und schneller als erwartet, würde ich dann sagen. Vielleicht bleiben wir wieder so im Nebel drin. Das Wichtige ist, wir haben Qualität und Sicherheit angesprochen und da sollte nichts sozusagen dahergekudelt werden. Das ist ein wichtiges Thema und deshalb wenn, dann ordentlich.
 Auf jeden Fall, ja. Also es ist besser, ein bisschen zu warten. Noch ein bisschen mehr Geduld zu haben, wie zu schnell rauszukommen. Auf jeden Fall. Und die zwei Dinge zu beachten. Kann ich nur wiederholen. Und wir werden euch auf jeden Fall informieren. Am besten Newsletter abonnieren. Und natürlich auch diesen Kanal.
 Und die Glocke.
 Und die Glocke drücken. Je nachdem, wo ihr schaut. Am besten ist natürlich auf YouTube, weil da gibt es noch viele andere Videos und Shorts und so. Da kriegt ihr es am ehesten mit. Also YouTube und Und am besten auch den Newsletter abonnieren. Und dranbleiben. Wir werden euch weiter informieren. Vielen Dank fürs Dabeisein. Vielen Dank für die Einblicke, Marcel. Ich hoffe, das gibt euch ein bisschen Sicherheit und macht euch genauso gespannt darauf, wie wir schon sind, wenn es endlich rausgeht. Und ja, danke und bis zum nächsten Mal.
 Bis zum nächsten Mal.
 Tschüss, Baba.