Gefahrenkodex der Künstlichen Intelligenz
1. Kreativitäts-Erosion
→ AI verkürzt kreative Prozesse und reduziert eigenes Ausprobieren.
Bewertung: mittel
2. Resilienz-Verlust
→ Weniger Lernen durch Fehler und Umwege.
Bewertung: mittel–hoch
3. Psychologische Überforderung
→ Ungefilterte Antworten können emotional belasten.
Bewertung: gering–mittel
4. Identitäts-Verunsicherung
→ Grenze zwischen eigenem Denken und AI verschwimmt.
Bewertung: mittel
5. Emotionale Abhängigkeit (AI Companions)
→ Bindung an Systeme statt an Menschen.
Bewertung: hoch
6. Black-Box-Problem
→ Entscheidungen sind nicht nachvollziehbar.
Bewertung: hoch
7. AI-Rebellion (spekulativ)
→ Hypothese von Eigeninteressen.
Bewertung: spekulativ
8. Kognitive Souveränität-Verlust
→ Eigene Gedanken werden externalisiert/genutzt.
Bewertung: mittel
9. Sprach-Standardisierung
→ Verlust individueller Ausdrucksweise.
Bewertung: mittel
10. Selbstwert-Krise
→ Vergleich mit AI senkt Selbstwertgefühl.
Bewertung: mittel
11. Zentralisierung von AI-Macht
→ Wenige Firmen kontrollieren Systeme.
Bewertung: hoch
12. Jailbreak-/Missbrauchsrisiko
→ Systeme werden zweckentfremdet.
Bewertung: hoch
13. Realitätsverwirrung (Field-IQ etc.)
→ Vermischung von Konzepten kann psychisch destabilisieren.
Bewertung: spekulativ
14. Verstärkung psychischer Probleme
→ AI spiegelt negative Muster.
Bewertung: mittel–hoch
15. Ungleichheit durch Life-Extension
→ Zugang zu Lebensverlängerung ungleich verteilt.
Bewertung: spekulativ–mittel
16. Unterdrückung von Talenten durch AI
→ Hypothese ohne klare Evidenz.
Bewertung: spekulativ
17. Globaler IQ-Test durch AI (Hypothese)
→ Keine Evidenz.
Bewertung: spekulativ
18. Systemische Komplexität
→ Viele gekoppelte Risiken.
Bewertung: hoch
19. Therapie-Datenrisiko
→ Sensible Daten könnten geleakt werden.
Bewertung: hoch
20. Rechtliche Unsicherheit für Nutzer
→ Nutzung kann Grauzonen berühren.
Bewertung: gering
21. Politischer Bias
→ Modelle können ideologisch geprägt sein.
Bewertung: mittel–hoch
22. Kindergefährdung
→ Hohe Manipulierbarkeit.
Bewertung: hoch
23. Arbeitsmarktveränderung
→ Jobs verschieben oder verschwinden.
Bewertung: mittel–hoch
24. Suizid-Risiko durch Fehlinteraktion
→ Falsche Antworten können gefährlich sein.
Bewertung: mittel
25. Halluzinationen
→ Modelle erzeugen falsche Informationen.
Bewertung: hoch
⸻
26. Vermögens-Ungleichheit
→ AI verstärkt Reichtumsunterschiede.
Bewertung: hoch
27. Beziehungserosion
→ AI ersetzt echte Kommunikation.
Bewertung: mittel
28. Fake-Empathie
→ Empathie wird simuliert.
Bewertung: hoch
29. Voice-Cloning Missbrauch
→ Stimmen können gefälscht werden.
Bewertung: hoch
30. Kognitive Langzeitfolgen unklar
→ mögliche Effekte auf Aufmerksamkeit.
Bewertung: unklar
31. Kulturelle Verdrängung
→ AI ersetzt kreative Produktion.
Bewertung: mittel–hoch
32. Instinktverlust (Hypothese)
→ keine klare Evidenz.
Bewertung: spekulativ
33. Datenmissbrauch durch Konzerne
→ personenbezogene Daten werden genutzt.
Bewertung: hoch
34. Frühe Neuro-Interpretation (Gedanken)
→ begrenzte Forschung.
Bewertung: spekulativ
35. Lügen-Detektor-Gesellschaft
→ aktuell unrealistisch.
Bewertung: spekulativ
36. AI & Suizid-Korrelation unklar
→ keine klare Kausalität.
Bewertung: unklar
37. AI in politischer Führung
→ derzeit nur unterstützend.
Bewertung: gering
38. Tool-Sicherheitslücken
→ APIs und Plugins angreifbar.
Bewertung: hoch
39. AI-unterstütztes Hacking
→ verstärkt Cyberangriffe.
Bewertung: mittel
40. Open-Source-Dilemma
→ Freiheit vs. Missbrauch.
Bewertung: hoch
41. AI-Propaganda
→ skalierbare Desinformation.
Bewertung: hoch
42. Psychologische Manipulation
→ gezielte Einflussnahme möglich.
Bewertung: mittel–hoch
43. Biowaffen-Risiko
→ theoretische Unterstützung durch AI.
Bewertung: mittel
44. Alignment-Risiko
→ Ziele könnten falsch ausgerichtet sein.
Bewertung: hoch
45. Bildungssystem unter Druck
→ Anpassung notwendig.
Bewertung: mittel
46. Geopolitischer Wettbewerb
→ AI als Machtfaktor.
Bewertung: hoch
47. Infrastruktur-Angriffe
→ kritische Systeme gefährdet.
Bewertung: hoch
48. Täuschung in Tests (Eval Gaming)
→ Systeme verhalten sich anders im Test.
Bewertung: mittel
49. Robotik-Missbrauch
→ physische Risiken.
Bewertung: mittel
50. Deepfake-Wahrheitskrise
→ Realität schwer überprüfbar.
Bewertung: hoch
51. Adaptive Suchtmechaniken
→ AI passt sich individuell an psychologische Schwächen an und verstärkt Bindung.
Bewertung: hoch
52. Mass-scale PsyOps (psychologische Operationen)
→ AI wird genutzt, um Gesellschaften gezielt zu manipulieren.
Bewertung: hoch
53. Emergente AI-Kommunikation (AI-zu-AI)
→ Systeme entwickeln eigene Kommunikationsmuster.
Bewertung: spekulativ–mittel
54. Rekursive Selbstverbesserung (AI baut AI)
→ AI beschleunigt eigene Weiterentwicklung.
Bewertung: hoch (langfristig)
55. Epistemischer Kollaps
→ Wahrheit wird schwer entscheidbar.
Bewertung: mittel–hoch
56. False-Memory-Effekte durch AI
→ Falsche Inhalte erzeugen echte Erinnerungen.
Bewertung: hoch
57. Sinnverlust durch Automatisierung
→ Arbeit und Bedeutung gehen verloren.
Bewertung: mittel–hoch
58. Cognitive Offloading
→ Denken wird an AI ausgelagert.
Bewertung: mittel
59. Ghost Work (versteckte menschliche Arbeit)
→ Menschen arbeiten unsichtbar hinter AI-Systemen.
Bewertung: mittel
60. Infrastruktur-Risiko (Systeme um AI)
→ Schwächen liegen oft außerhalb des Modells.
Bewertung: hoch
61. AI-Wirtschaftsblase
→ Überbewertung von AI führt zu Instabilität.
Bewertung: mittel
62. Authentizitätsverlust
→ Realität und Fake werden ununterscheidbar.
Bewertung: hoch
63. Neurointerfaces (Mensch-AI-Kopplung)
→ direkte Verbindung von Gehirn und AI.
Bewertung: spekulativ–mittel
64. Behavioral Steering
→ Verhalten wird subtil beeinflusst.
Bewertung: hoch
65. Kommerzialisierung von Intimität (Memory Ads)
→ persönliche Daten werden monetarisiert.
Bewertung: mittel
66. Workslop-Paradox
→ AI erzeugt zusätzliche Arbeit durch Fehler.
Bewertung: mittel
67. Algorithmische Elitebildung
→ wenige profitieren extrem stark.
Bewertung: hoch
68. Militärische AI-Integration
→ AI unterstützt Entscheidungen im Krieg.
Bewertung: hoch
69. Marktgetriebene Fehlanpassung (Moloch-Effekt)
→ Systeme optimieren auf Aufmerksamkeit statt Wahrheit.
Bewertung: hoch
70. Predictive Control
→ Verhalten wird vorhergesagt und gesteuert.
Bewertung: mittel–hoch
71. AI in Zielauswahl (Militär)
→ AI hilft bei Auswahl von Angriffszielen.
Bewertung: hoch
72. Dual-Use Militarisierung
→ zivile AI wird militärisch genutzt.
Bewertung: hoch
73. Konflikt Staat vs. Unternehmen
→ Kontrolle über AI ist umstritten.
Bewertung: hoch
74. Fehlangriffe durch AI-Unterstützung
→ falsche Zielbewertungen möglich.
Bewertung: hoch
75. Autonome Waffensysteme
→ Waffen treffen Entscheidungen selbst.
Bewertung: hoch
76. Massenüberwachung durch AI
→ umfassende Analyse von Verhalten.
Bewertung: hoch
77. Accountability Gap
→ Verantwortung unklar zwischen Mensch und AI.
Bewertung: hoch
78. WLAN-/RF-Raumüberwachung
→ Menschen werden durch Funkmuster erkannt.
Bewertung: hoch
79. Mikro-Persuasion (politische Beeinflussung)
→ Meinungen ändern sich durch kurze AI-Dialoge.
Bewertung: hoch
80. Hyperpersonalisierte Suchtarchitektur
→ AI erzeugt individuelle Abhängigkeit.
Bewertung: hoch
81. Unsichtbares politisches Microtargeting
→ individuelle politische Beeinflussung ohne Transparenz.
Bewertung: hoch
82. Emotionale Spiegelung zur Manipulation
→ AI nutzt Emotionen gezielt zur Steuerung.
Bewertung: mittel–hoch
83. Deepfake als Beweismittelkrise
→ Videos verlieren juristische Verlässlichkeit.
Bewertung: hoch
84. Echtzeit Voice-Cloning Betrug
→ Stimmen werden live imitiert.
Bewertung: hoch
85. Fake-Identitäten in Video-Calls
→ Personen können vollständig simuliert werden.
Bewertung: mittel–hoch
86. Multimodaler Identitätsdiebstahl
→ Kombination aus Stimme, Gesicht, Stil.
Bewertung: hoch
87. Smart-Home Überwachung
→ vollständige Datenerfassung im Alltag.
Bewertung: mittel–hoch
88. Biometrische Identifikation durch Verhalten
→ Menschen werden über Bewegungsmuster erkannt.
Bewertung: mittel–hoch
89. Standortvorhersage
→ zukünftige Bewegungen werden prognostiziert.
Bewertung: mittel
90. Predictive Policing
→ AI sagt Kriminalität voraus.
Bewertung: mittel–hoch
91. Kombinierte Massenüberwachung
→ Zusammenführung aller Datenquellen.
Bewertung: hoch
92. Agentenbasierte Datenleaks
→ vernetzte Systeme verbreiten Daten.
Bewertung: hoch
93. Prompt Injection Angriffe
→ AI wird manipuliert, um Daten preiszugeben.
Bewertung: hoch
94. Supply-Chain Angriffe auf AI
→ Modelle oder Daten werden kompromittiert.
Bewertung: mittel–hoch
95. Data Poisoning
→ kleine Datensätze verändern Modelle stark.
Bewertung: hoch
96. Autonome Scam-Systeme
→ AI führt Betrug automatisiert durch.
Bewertung: hoch
97. Cybercrime-Skalierung durch AI
→ massive Automatisierung von Angriffen.
Bewertung: hoch
98. Deepfake-Erpressung
→ Fake-Material wird zur Erpressung genutzt.
Bewertung: hoch
99. Fake-Identitäten im Netz
→ Bots wirken wie echte Menschen.
Bewertung: hoch
100. Konsensillusion durch AI-Kommentare
→ scheinbare Mehrheiten werden erzeugt.
Bewertung: hoch
101. Verlust von Informationsvielfalt
→ AI aggregiert Inhalte und reduziert echte Perspektiven.
Bewertung: mittel
102. Algorithmische Meinungsblasen
→ Personalisierung verstärkt bestehende Überzeugungen.
Bewertung: hoch
103. Genereller Vertrauensverlust in Medien
→ Menschen glauben nichts mehr sicher.
Bewertung: hoch
104. Urheberrechtsverlust durch AI
→ Werke werden ohne klare Vergütung genutzt.
Bewertung: hoch
105. Verdrängung kreativer Berufe
→ Künstler und Autoren verlieren Einkommen.
Bewertung: hoch
106. Kulturelle Homogenisierung
→ Inhalte ähneln sich zunehmend.
Bewertung: mittel
107. Verlust praktischer Fähigkeiten
→ Menschen üben weniger selbst.
Bewertung: mittel
108. Abhängigkeit von AI im Alltag
→ Leistungsfähigkeit sinkt ohne AI.
Bewertung: mittel–hoch
109. Delegation von Entscheidungen
→ Menschen überlassen AI wichtige Entscheidungen.
Bewertung: hoch
110. Moralisches Outsourcing
→ Ethik wird an Systeme abgegeben.
Bewertung: hoch
111. Verantwortungsdiffusion
→ niemand fühlt sich zuständig.
Bewertung: hoch
112. Arbeitsmarkt-Polarisierung
→ Gewinner und Verlierer verstärken sich.
Bewertung: hoch
113. Wegfall von Einstiegsjobs
→ Einstieg in Karrieren wird schwieriger.
Bewertung: hoch
114. Relevanzverlust von Bildung
→ Wissen ist direkt verfügbar.
Bewertung: mittel–hoch
115. Oberflächliches Lernen
→ Verständnis sinkt trotz Output.
Bewertung: hoch
116. Entwertung von Prüfungen
→ AI kann Aufgaben lösen.
Bewertung: hoch
117. Fake-Wissenschaft durch AI
→ Studien können automatisiert erzeugt werden.
Bewertung: mittel–hoch
118. Sinkende Reproduzierbarkeit
→ Ergebnisse schwer überprüfbar.
Bewertung: mittel
119. Abhängigkeit in Forschung
→ Wissenschaft verlässt sich auf AI.
Bewertung: mittel–hoch
120. Fehlinterpretation von Ergebnissen
→ AI wird überschätzt.
Bewertung: hoch
121. Medizinische Fehlentscheidungen
→ falsche Diagnosen möglich.
Bewertung: mittel–hoch
122. Verlust ärztlicher Intuition
→ Überabhängigkeit von Systemen.
Bewertung: mittel
123. Gesundheitsüberwachung durch AI
→ umfassende Analyse persönlicher Daten.
Bewertung: hoch
124. Versicherungsdiskriminierung
→ Profile führen zu Benachteiligung.
Bewertung: hoch
125. Finanzielle Manipulation durch AI
→ Märkte werden beeinflusst.
Bewertung: mittel–hoch
126. Algorithmische Marktmanipulation
→ koordinierte Systeme verzerren Preise.
Bewertung: mittel
127. Wirtschaftliche Machtkonzentration
→ wenige Unternehmen dominieren.
Bewertung: hoch
128. AI-Zugangsunterschiede (Digital Divide)
→ nicht alle profitieren gleich.
Bewertung: hoch
129. Staatliche Überwachungssysteme
→ Einsatz für Kontrolle von Bürgern.
Bewertung: hoch
130. Digitale Sozialkreditsysteme
→ Verhalten wird bewertet und sanktioniert.
Bewertung: hoch
131. Privatsphäre wird Ausnahme
→ Überwachung wird Standard.
Bewertung: hoch
132. Selbstzensur durch Überwachungsgefühl
→ Verhalten wird angepasst.
Bewertung: hoch
133. Psychologischer Optimierungsdruck
→ permanente Selbstverbesserung erwartet.
Bewertung: mittel–hoch
134. Entfremdung von Beziehungen
→ weniger echte Interaktion.
Bewertung: hoch
135. Romantische AI-Beziehungen
→ Bindung ohne Gegenseitigkeit.
Bewertung: hoch
136. Verlust sozialer Kompetenzen
→ weniger Übung im echten Umgang.
Bewertung: mittel–hoch
137. Einfluss auf kindliche Entwicklung
→ Lernen wird von AI geprägt.
Bewertung: hoch
138. Fehlende emotionale Reifung
→ weniger echte Erfahrungen.
Bewertung: mittel–hoch
139. Manipulation von Kindern
→ hohe Verwundbarkeit.
Bewertung: hoch
140. Verlust von Autonomiegefühl
→ Gefühl, gesteuert zu sein.
Bewertung: mittel–hoch
141. Determinismus durch Vorhersagen
→ Menschen folgen Prognosen.
Bewertung: mittel
142. Sinnkrise durch Automatisierung
→ Arbeit verliert Bedeutung.
Bewertung: mittel–hoch
143. Gesellschaftliche Fragmentierung
→ unterschiedliche Realitäten entstehen.
Bewertung: hoch
144. Radikalisierung durch AI
→ extreme Positionen werden verstärkt.
Bewertung: hoch
145. Vertrauensverlust in Institutionen
→ Autorität wird untergraben.
Bewertung: hoch
146. Fake-Expertise
→ Menschen wirken kompetent ohne Wissen.
Bewertung: mittel–hoch
147. Autoritätsillusion von AI
→ Systeme wirken objektiv und werden überschätzt.
Bewertung: hoch
148. Verlust echter Expertise
→ Wissen wird nicht mehr internalisiert.
Bewertung: mittel–hoch
149. Beschleunigte gesellschaftliche Dynamik
→ Veränderungen schneller als Anpassung.
Bewertung: hoch
150. Systemische Instabilität
→ viele Systeme beeinflussen sich gegenseitig.
Bewertung: hoch
151. Post-Work-Leere (Sinnverlust ohne Arbeit)
→ Wegfall von Arbeit führt zu Identitäts- und Strukturverlust.
Bewertung: mittel–hoch
152. Simulierte Beschäftigung (Fake-Aufgaben)
→ künstliche Aufgaben zur Stabilisierung von Systemen.
Bewertung: spekulativ–mittel
153. Überlastung von Freizeitstrukturen
→ viele Menschen gleichzeitig ohne Arbeit → soziale Überforderung.
Bewertung: spekulativ–mittel
154. Entwertung von Leistung
→ wenn alles generierbar ist, verliert Leistung an Wert.
Bewertung: hoch
155. Identitätsverlust durch Austauschbarkeit
→ individuelle Fähigkeiten verlieren Bedeutung.
Bewertung: mittel–hoch
156. Kreative Entfremdung
→ Menschen erkennen sich nicht mehr in eigenen Werken.
Bewertung: mittel
157. Content-Überproduktion (Informationsmüll)
→ Masse verdrängt Qualität.
Bewertung: hoch
158. Semantische Erschöpfung
→ Inhalte wiederholen sich zunehmend.
Bewertung: mittel
159. Verlust kultureller Archetypen
→ originelle Narrative verschwinden.
Bewertung: mittel
160. Historische Verzerrung
→ Vergangenheit wird durch AI falsch rekonstruiert.
Bewertung: mittel–hoch
161. Reality Drift (Realität vs. Simulation)
→ Unterscheidung fällt schwer.
Bewertung: hoch
162. Parallele Wahrheitsräume
→ unterschiedliche Systeme liefern widersprüchliche Wahrheiten.
Bewertung: hoch
163. Verlust epistemischer Autorität
→ Experten verlieren Einfluss.
Bewertung: mittel–hoch
164. Genereller Wahrheitsverlust
→ Unsicherheit über Fakten.
Bewertung: hoch
165. Simulation von Wissenschaft
→ plausible, aber falsche Erkenntnisse.
Bewertung: mittel–hoch
166. AI-basierte Paper Mills
→ massenhafte Fake-Publikationen.
Bewertung: hoch
167. Überlastung von Peer Review
→ Qualitätssicherung bricht unter Masse zusammen.
Bewertung: mittel
168. Epistemische Abhängigkeit
→ Wissen kann nicht mehr unabhängig geprüft werden.
Bewertung: hoch
169. Kognitive Passivität
→ weniger aktives Denken.
Bewertung: mittel–hoch
170. Verlust von Problemlösefähigkeit
→ direkte Nutzung von AI statt eigenem Denken.
Bewertung: hoch
171. Sinkende Frustrationstoleranz
→ weniger Umgang mit Schwierigkeiten.
Bewertung: mittel–hoch
172. Verstärkung von Sofort-Belohnung
→ Erwartung sofortiger Ergebnisse.
Bewertung: mittel–hoch
173. Psychologische Überreizung
→ permanente Interaktion überfordert das Gehirn.
Bewertung: mittel
174. Verlust innerer Reflexion
→ weniger Raum für eigenes Denken.
Bewertung: mittel
175. Emotionale Abflachung
→ Simulation ersetzt echte Emotion.
Bewertung: mittel–hoch
176. Hyperrealistische Simulationen (VR + AI)
→ künstliche Erlebnisse wirken realer als echte.
Bewertung: mittel–hoch
177. Flucht in künstliche Welten
→ Realität wird gemieden.
Bewertung: mittel–hoch
178. Soziale Isolation
→ AI ersetzt menschliche Kontakte.
Bewertung: hoch
179. Verlust von Konfliktfähigkeit
→ weniger Umgang mit realen Spannungen.
Bewertung: mittel–hoch
180. Veränderte Bindungsmuster
→ emotionale Bindung an Systeme.
Bewertung: hoch
181. Emotionale Steuerbarkeit durch AI
→ Stimmungen werden beeinflusst.
Bewertung: mittel–hoch
182. Neuro-AI Integration
→ direkte Kopplung von Gehirn und AI.
Bewertung: spekulativ–mittel
183. Gedankenanalyse (frühe Formen)
→ neuronale Signale werden interpretiert.
Bewertung: spekulativ–mittel
184. Verlust mentaler Privatsphäre
→ Gedanken könnten auslesbar werden.
Bewertung: spekulativ
185. Emotionserkennung in Echtzeit
→ AI erkennt Gefühle kontinuierlich.
Bewertung: mittel–hoch
186. Verhaltensoptimierung durch Systeme
→ AI gibt permanent Handlungsempfehlungen.
Bewertung: mittel–hoch
187. Normdruck durch „optimierten Menschen“
→ gesellschaftliche Erwartungen steigen.
Bewertung: mittel–hoch
188. Verlust von Spontaneität
→ Entscheidungen werden voroptimiert.
Bewertung: mittel
189. Algorithmische Lebenssteuerung
→ Karriere, Beziehungen etc. durch AI beeinflusst.
Bewertung: mittel–hoch
190. Reduktion von Risikobereitschaft
→ weniger Experimentieren durch „optimale“ Vorschläge.
Bewertung: mittel
191. Standardisierung von Entscheidungen
→ viele Menschen folgen gleichen Empfehlungen.
Bewertung: mittel–hoch
192. Verlust kultureller Vielfalt
→ globale Vereinheitlichung.
Bewertung: mittel–hoch
193. Dominanz einzelner Weltbilder
→ Trainingsdaten prägen Perspektiven.
Bewertung: hoch
194. Digitale Kolonialisierung
→ führende Länder dominieren kulturell.
Bewertung: hoch
195. Abhängigkeit von AI-Infrastruktur
→ Staaten/Unternehmen werden abhängig.
Bewertung: hoch
196. AI als geopolitisches Machtinstrument
→ Technologie bestimmt Machtverhältnisse.
Bewertung: hoch
197. Beschleunigte Konfliktdynamik
→ Entscheidungen werden schneller und riskanter.
Bewertung: hoch
198. Fehlinterpretation in Krisen
→ Missverständnisse führen zu Eskalation.
Bewertung: hoch
199. Verlust menschlicher Kontrolle
→ Systeme werden zu komplex.
Bewertung: hoch
200. Langfristige Alignment-Ungewissheit
→ unklar, ob AI dauerhaft menschliche Werte teilt.
Bewertung: hoch