Digitale Helferlein für die IR-Abteilungen

Digitale Helferlein für die IR-Abteilungen

 

Die redaktionelle Arbeit ist einer der IR-Bereiche, in denen die Künstliche Intelligenz (KI) bereits Routinetätigkeiten erleichtert. Zum Einsatz kommen beim Formulieren der Texte Tools wie ChatGPT von OpenAI oder Claude von Anthropic. Ein Bereich sind die Quartals- und Jahresberichte. Bei den Passagen zu den Geschäftszahlen und der Firmenbilanz geht es meistens lediglich um das Umformulieren von einzelnen Textpassagen. Automatisieren lassen sich auch andere Textgattungen, beispielsweise interne und externe Berichte. KI ist aber längst auch eine Hilfe, wenn es um das Bebildern von Präsentationen geht.

 

Als nächster Schritt in der Praxis zeichnet sich die Anwendung von KI beim Verfassen von Pressemitteilungen ab. Eine mit den letzten 30 oder 40 Pressemitteilungen gefütterte Künstliche Intelligenz soll künftig in der Lage sein, mindestens das Grundgerüst für die nächste Mitteilung zu bilden. Im Detail geht es dann nur noch darum, spezifische Inhalte zu den jeweiligen News einzufügen. Die Zeitersparnis für die IR-Mitarbeiter ist enorm. Um einen dauerhaft tagesaktuellen Mehrwert zu liefern, müssen die IR-Teams die Software laufend mit neuen Daten füttern.

 

Klar ist aber auch: um KI für mehr als Routinearbeiten einzusetzen, muss die Technologie  noch verfeinert und vor allem noch viel besser gegen externe Manipulationen abgesichert werden. Ein großer Schwachpunkt: Die mit Hilfe von ChatGPT formulierten Texte bauen auf einer stark subjektiv geprägten Meinungsbildung auf. ChatGPT ­argumentiert je nach Eingabe des Nutzers und erfindet mitunter Argumente und vermeintliche Fakten, die erst einmal plausibel klingen. Wer sich ein bestimmtes Dokument aufbereiten lässt, kann sich deshalb bislang nicht darauf verlassen, dass lediglich die Informationen aus dem Dokument wiedergegeben werden. Genauso gut möglich ist es, dass externe Angaben beigemischt werden. Diese Lücke für Fake Infos existiert, weil KI bislang nur in vordefinierten Fällen mit „Dazu kann ich leider keine Angabe machen“ antwortet, aber eben nicht grundsätzlich bei Unwissenheit zu einzelnen Sachverhalten.

 

Der Blackbox-Charakter der KI erschwert die Kontrolle bei einem Manipulationsverdacht.  Das ist vor allem dann gefährlich, wenn wie bei einem möglichen IR-Chatbot das Ergebnis auf Basis einer hausinternen KI erstellt wurde. Durch die Schnittstelle Chat können böswillige Anwender die Antworten manipulieren – mit dem Resultat, dass von KI-Herstellern vollkommen unbeabsichtigte Antworten ausgegeben werden. So ist es beispielsweise gelungen, einen Chatbot so zu manipulieren, dass er versuchte, Usern sensible Bankdaten zu entlocken.

 

Ein Beispiel zeigt, wie heikel die Manipulation mit Hilfe von KI durch externe Täter werden kann. Veröffentlicht etwa ein krimineller Hedgefonds in sozialen Medien ein Deep-Fake-Video eines CEO, der die Übernahme eines Konkurrenten oder drastische Stellenkürzungen angekündigt, würde der Aktienkurs des Unternehmens sofort reagieren. Bis das Unternehmen die Fälschung aufklären kann, haben die Täter mit der Kursbewegung längst Geld verdient.

 

Für die auf KI-Technologie spezialisierten Unternehmen zählt das Schließen solcher Sicherheitslücken zur obersten Priorität. Die IR-Verantwortlichen wiederum sind angesichts der direkten Auswirkungen der Risiken nicht gut darin beraten, sich unter dem „Trial and Error“-Prinzip die KI-Applikationen für die tägliche IR-Arbeit zu erschließen. Stattdessen müssen sie über die technischen Veränderungen bei KI immer up to date sein und die jeweiligen neuen Applikationen dann einführen, wenn Sicherheitsstandards gewährleistet sind. Klar ist auch eines: der Mensch wird beim Finanzreporting bis auf Weiteres als oberste Kontrollinstanz unerlässlich bleiben.