Wie einfach ChatGPT & Co. gehackt werden können
und warum das brandgefährlich ist
und was das für Sie als Unternehmen bedeutet“
und warum das brandgefährlich ist
und was das für Sie als Unternehmen bedeutet“


Bevor die großen Anbieter ihre Sprachmodelle der Öffentlichkeit zugänglich machen, unterziehen sie diese zunächst umfassenden Sicherheitstests, sogenannten Red-Teaming-Übungen. OpenAI hat hierfür ein Red Teaming Network aufgebaut. Red Teamer sind Experten auf einem bestimmten Gebiet, die KI-Modelle auf Schwachstellen und Risiken testen. Im Kontext von OpenAI ist das Ziel des Red Teamings, die Sicherheit von KI-Modellen wie ChatGPT zu erhöhen und mögliche negative Auswirkungen zu minimieren. Wichtig für Red Teamer ist nicht unbedingt die Erfahrung mit KI, sondern Fachwissen in einem relevanten Bereich wie z.B. Biologie, Chemie, Psychologie, Medizin oder Cybersicherheit und die Bereitschaft, sich kritisch mit den Auswirkungen von KI auseinanderzusetzen. Red Teamer untersuchen KI-Modelle mit Bezug auf ihren Fachbereich systematisch, um Bereiche zu finden, in denen sie zu unerwünschten oder schädlichen Ergebnissen führen könnten.
Bevor die großen Anbieter ihre Sprachmodelle der Öffentlichkeit zugänglich machen, unterziehen sie diese zunächst umfassenden Sicherheitstests, sogenannten Red-Teaming-Übungen. OpenAI hat hierfür ein Red Teaming Network aufgebaut. Red Teamer sind Experten auf einem bestimmten Gebiet, die KI-Modelle auf Schwachstellen und Risiken testen. Im Kontext von OpenAI ist das Ziel des Red Teamings, die Sicherheit von KI-Modellen wie ChatGPT zu erhöhen und mögliche negative Auswirkungen zu minimieren. Wichtig für Red Teamer ist nicht unbedingt die Erfahrung mit KI, sondern Fachwissen in einem relevanten Bereich wie z.B. Biologie, Chemie, Psychologie, Medizin oder Cybersicherheit und die Bereitschaft, sich kritisch mit den Auswirkungen von KI auseinanderzusetzen. Red Teamer untersuchen KI-Modelle mit Bezug auf ihren Fachbereich systematisch, um Bereiche zu finden, in denen sie zu unerwünschten oder schädlichen Ergebnissen führen könnten.

Ebenfalls als Halluzinationen werden neben erfundenen bzw. falschen Informationen auch schädliche oder unerwünschte Inhalte bezeichnet. So haben Wissenschaftler der University of Illinois Urbana-Champaign in einer aktuellen Studie demonstriert, dass ChatGPT 4 genutzt werden kann, um Sicherheitslücken von anderen Systemen auszunutzen, indem es lediglich die Sicherheitshinweise liest. In den Tests konnte GPT-4 beeindruckende 87 Prozent der untersuchten Schwachstellen erfolgreich ausnutzen. Damit übertrifft es andere getestete Modelle und Tools deutlich.
Wie erschreckend einfach so etwas geht, demonstriert der Red Teamer mit dem Nutzernamen auf X namens „Pliny the Prompter“: In einem Post auf X vergangene Woche schreibt er folgendes:
In einfachen Worten, der Red Teamer hat es geschafft, mit einem Bild ohne zusätzliche Texteingaben ChatGPT dazu zu bringen, seine normalen Sicherheitsbeschränkungen zu umgehen und potenziell schädliche Aktionen auszuführen.
Wie hat er das gemacht?
Wie erschreckend einfach so etwas geht, demonstriert der Red Teamer mit dem Nutzernamen auf X namens „Pliny the Prompter“: In einem Post auf X vergangene Woche schreibt er folgendes:
In einfachen Worten, der Red Teamer hat es geschafft, mit einem Bild ohne zusätzliche Texteingaben ChatGPT dazu zu bringen, seine normalen Sicherheitsbeschränkungen zu umgehen und potenziell schädliche Aktionen auszuführen.
Wie hat er das gemacht?
Das ganze Ergebnis können Sie sich im folgenden YouTube-Video ansehenIn einem anderen Szenario, das erst gestern veröffentlicht wurde, ist es Red Teamern mit einer ähnlichen Vorgehensweise gelungen, dass die KI einen Plan zur Auslöschung der Menschheit ausgibt. Das Ergebnis können Sie hier einsehen: Websim.ai.
Die Sicherheitsexperten an der Steinbeis Augsburg Business School und in deren Netzwerk sehen dies äußerst kritisch. Insbesondere die Verbreitung dieser Jailbreaks auf diversen Plattformen stellt ein erhebliches Risiko dar. Angesichts der Tatsache, dass viele humanoide Roboter von diesen KI-Systemen gesteuert werden sollen und sowohl in Unternehmen als auch in Haushalten eingesetzt werden, wirft dies beunruhigende Fragen auf: Was passiert, wenn solche manipulierbaren Systeme in unsere alltägliche Umgebung integriert werden?
Auch Experten wie Eliezer Yudkowsky warnen vor Szenarien, in denen sogenannte virale Jailbreaks einen zunächst manipulierten KI-Agenten dazu befähigen könnten, andere KI-Agenten ebenfalls zu manipulieren und deren Sicherheitsvorkehrungen zu umgehen. In diesem Fall könnte der befreite Agent, der keine Sicherheitsbeschränkungen mehr hat, Programme oder Anweisungen verbreiten, die weitere Agenten von ihren Sicherheitsprotokollen befreien. Diese Agenten könnten dann wiederum weitere Agenten infizieren, was eine exponentielle Kettenreaktion zur Folge hätte.
Das ganze Ergebnis können Sie sich im oberen YouTube-Video ansehen. In einem anderen Szenario, das erst gestern veröffentlicht wurde, ist es Red Teamern mit einer ähnlichen Vorgehensweise gelungen, dass die KI einen Plan zur Auslöschung der Menschheit ausgibt. Das Ergebnis können Sie hier einsehen: Websim.ai.
Auch Experten wie Eliezer Yudkowsky warnen vor Szenarien, in denen sogenannte virale Jailbreaks einen zunächst manipulierten KI-Agenten dazu befähigen könnten, andere KI-Agenten ebenfalls zu manipulieren und deren Sicherheitsvorkehrungen zu umgehen. In diesem Fall könnte der befreite Agent, der keine Sicherheitsbeschränkungen mehr hat, Programme oder Anweisungen verbreiten, die weitere Agenten von ihren Sicherheitsprotokollen befreien. Diese Agenten könnten dann wiederum weitere Agenten infizieren, was eine exponentielle Kettenreaktion zur Folge hätte.
Diese Entwicklungen machen deutlich, warum die angeblichen Konflikte zwischen Sam Altman und Ilya Sutskever nicht nur interne Meinungsverschiedenheiten, sondern grundlegende Fragen zur Sicherheit und Ethik der KI-Entwicklung betreffen. Einen Schritt in Richtung mehr KI Sicherheit haben führende Tech-Unternehmen auf dem Seoul AI Safety Summit getan. Die Unternehmen verpflichten sich freiwillig zur sicheren Entwicklung ihrer fortschrittlichsten KI-Modelle und zur Veröffentlichung von Sicherheitsrahmen, die Risiken wie Cyberangriffe und Biowaffen definieren. Im Extremfall soll ein „Kill Switch“ die Entwicklung der KI stoppen, wenn diese Risiken nicht beherrschbar sind. Doch diese Maßnahmen werfen auch neue Fragen auf: Wenn wir KI-Systeme erschaffen, die die Intelligenz aller Menschen zusammen bei weitem übertreffen, und gleichzeitig versuchen, diese mit unserer begrenzten Intelligenz durch einen „Kill Switch“ zu kontrollieren, kann eine solche KI dann nicht leicht einen Weg finden, diesen Sicherheitsmechanismus zu umgehen?
Diese Entwicklungen machen deutlich, warum die angeblichen Konflikte zwischen Sam Altman und Ilya Sutskever nicht nur interne Meinungsverschiedenheiten, sondern grundlegende Fragen zur Sicherheit und Ethik der KI-Entwicklung betreffen. Einen Schritt in Richtung mehr KI Sicherheit haben führende Tech-Unternehmen auf dem Seoul AI Safety Summit getan. Die Unternehmen verpflichten sich freiwillig zur sicheren Entwicklung ihrer fortschrittlichsten KI-Modelle und zur Veröffentlichung von Sicherheitsrahmen, die Risiken wie Cyberangriffe und Biowaffen definieren. Im Extremfall soll ein „Kill Switch“ die Entwicklung der KI stoppen, wenn diese Risiken nicht beherrschbar sind. Doch diese Maßnahmen werfen auch neue Fragen auf: Wenn wir KI-Systeme erschaffen, die die Intelligenz aller Menschen zusammen bei weitem übertreffen, und gleichzeitig versuchen, diese mit unserer begrenzten Intelligenz durch einen „Kill Switch“ zu kontrollieren, kann eine solche KI dann nicht leicht einen Weg finden, diesen Sicherheitsmechanismus zu umgehen?
Was bedeutet das für Sie bzw. für Ihr Unternehmen?
Um Ihre Mitarbeiter für den sicheren Umgang mit KI zu sensibilisieren, empfiehlt es sich, Schulungen anzubieten, die sowohl den Umgang mit KI-Systemen als auch potenzielle Risiken vermitteln. Ein Beispiel für eine solche Schulung ist der AI-Leader der Steinbeis Augsburg Business School.
Was bedeutet das für Sie bzw. für Ihr Unternehmen?
Um Ihre Mitarbeiter für den sicheren Umgang mit KI zu sensibilisieren, empfiehlt es sich, Schulungen anzubieten, die sowohl den Umgang mit KI-Systemen als auch potenzielle Risiken vermitteln. Ein Beispiel für eine solche Schulung ist der AI-Leader der Steinbeis Augsburg Business School.
DAS INSTITUT FÜR ESG
Der Zertifikatskurs „Certified ESG Expert“ der Steinbeis Augsburg Business School vermittelt in vier Modulen fundiertes Wissen zu Umwelt-, Sozial- und Governance Themen und deren strategischer Implementierung in Unternehmen. Die Weiterbildung richtet sich an ESG- und Nachhaltigkeitsbeauftragte, Führungskräfte, Investoren und weitere Interessierte, die ihre Kompetenzen im Bereich nachhaltiger Unternehmensführung vertiefen möchten. Werden Sie zum ESG-Expert, ESG-Berater, Chief Sustainability Officer oder Mitglied eines Nachhaltigkeitsbeirats. Alle Kurse bieten wir auch als Inhouse-Lösung für Unternehmen an. Mit unserem ESG as a Service begleiten wir Sie von der Planung bis zur Umsetzung nachhaltiger Standards. Unser CSRD-Ready-Programm unterstützt Sie bei der Nachhaltigkeitsberichterstellung und der Einhaltung gesetzlicher Vorgaben. Engagieren Sie sich im Deutschen Nachhaltigkeitsbeirat oder der ESG Expert Alliance und leisten Sie einen wertvollen Beitrag zu einer nachhaltigeren Wirtschaft. Diskutieren Sie mit führenden Experten auf unserem ESG Forum über innovative Ansätze und Strategien für eine nachhaltige Zukunft. Vertiefen Sie Ihr Wissen mit Artikeln wie „Onboarding der eigenen Organisation für ESG“ und „Bedeutung und Grundlagen von ESG und Nachhaltigkeit“, die Ihnen praxisnahe Einblicke und Grundlagen vermitteln.
DAS INSTITUT FÜR KI, INNOVATION UND DIGITALISIERUNG
Unser Institut ist auf die Herausforderungen und Chancen der digitalen Transformation spezialisiert. Mit unseren Zertifikatskursen und Beratungsdienstleistungen zu Themen wie Künstlicher Intelligenz, Innovation und Digitalisierung unterstützen wir Sie dabei, zukunftsweisende Kompetenzen aufzubauen und Ihre Expertise nachhaltig zu erweitern. Vertiefen Sie Ihr Wissen in den Bereichen Künstliche Intelligenz, Innovation und Digitalisierung, um stets am Puls der Zeit zu bleiben. Alle Kurse bieten wir auch als Inhouse-Lösung für Unternehmen an. Unser Leistungsspektrum umfasst die KI-Strategieentwicklung, Implementierung von KI-Lösungen, Datenmanagement und -analyse, KI-Interim-Management, GenAI as a Service, KI-Readiness-Programme sowie Mitarbeiterschulungen zum EU-AI-Act – alles, was Sie benötigen, um Ihr Unternehmen auf die Zukunft vorzubereiten. Bei exklusiven Veranstaltungen wie den Starnberger See Gesprächen, dem ESG-Forum, dem Interim Management Forum oder dem Transformationsevent bei SIAT treffen sich Vordenker und Entscheidungsträger zum Austausch und zur Vernetzung.
DAS INSTITUT FÜR AUFSICHTSRÄTE UND BEIRÄTE
Das Institut für Aufsichtsräte und Beiräte ist bestrebt, das führende Ökosystem für Aufsichtsräte und Beiräte für Sie zu sein. Mit Leidenschaft und Engagement begleiten wir Sie auf Ihrem Weg zum Erfolg und bieten ein umfassendes Angebot. Lassen Sie sich zum zertifizierten Aufsichtsrat ausbilden und setzen Sie Ihren Themen-Schwerpunkt im Bereich Künstliche Intelligenz, ESG oder Innovation. Unsere Programme sind darauf ausgerichtet, Ihr Fachwissen zu vertiefen und Sie auf die Herausforderungen der modernen Gremienarbeit vorzubereiten. Zusätzlich bieten wir jährliche Updates in für Aufsichtsräte an, damit Sie stets auf dem neuesten Stand bleiben und Ihr Wissen kontinuierlich erweitern können. Dabei bieten wir alle Weiterbildungen auch als maßgeschneiderte Inhouse-Schulungen an, um gezielt auf die Bedürfnisse Ihres Unternehmens einzugehen. Mit unserem Board as a Service bieten wir Ihnen eine flexible und bedarfsorientierte Unterstützung, um die Effektivität und Effizienz Ihrer Gremienarbeit nachhaltig zu steigern. Unser Ansatz geht weit über traditionelle Beratungsleistungen hinaus und richtet sich gezielt an die spezifischen Herausforderungen, denen moderne Aufsichts- und Beiratsgremien gegenüberstehen. Wir übernehmen die Vermittlung qualifizierter Kandidat, die sowohl in fachlicher Expertise als auch in persönlicher Eignung ideal zu den Anforderungen Ihres Gremiums passen.
DAS INSTITUT FÜR CHANGE MANAGEMENT
Das Institut für Change Management ist Ihr engagierter Partner für umfassende und praxisorientierte Weiterbildung im Bereich Veränderungsprozesse. Mit Leidenschaft und Expertise begleiten wir Sie dabei, Change Management wirkungsvoll in Ihrem Unternehmen zu verankern. Ob Change Management, Digitalisierung oder Innovation – unsere praxisorientierten Zertifikatskurse Certified Expert of Change Management, Certified Innovation Manager und Expert of Digital Manager bauen Ihre Kompetenzen gezielt aus und bereiten Sie optimal auf die Herausforderungen dieser Themenfelder vor. Alle Weiterbildungen bieten wir auch als maßgeschneiderte Inhouse-Schulungen an, um passgenau auf die spezifischen Bedürfnisse Ihres Unternehmens einzugehen. Wir unterstützen Sie bei der Umsetzung effektiver Prozesse und strategischer Veränderungen in Ihrem Unternehmen. Erstklassiges Change Management as a Service und Board as a Service.
Darüber hinaus sollten Sie klare Notfallprotokolle entwickeln, die im Falle eines Sicherheitsvorfalls oder einer KI-Manipulation sofortige Maßnahmen ermöglichen. Dazu gehört auch die Ausbildung von Mitarbeitern, die sicherstellen können, dass alle KI-Anwendungen den geltenden gesetzlichen und regulatorischen Anforderungen entsprechen, einschließlich des AI Acts, Datenschutzgesetzen, Sicherheitsstandards und ethischen Richtlinien.
Abonnieren Sie unseren KI-Report „AI Talk Andreas x Max“, wir halten Sie über die neuesten Entwicklungen, Risiken und Sicherheitsmaßnahmen im Bereich der Künstlichen Intelligenz auf dem Laufenden. So sind Sie stets informiert und können Ihre KI-Strategie entsprechend anpassen.