WhatsApp Image 2026-03-18 at 19.54.26.jpeg

Gefahrenkodex der Künstlichen Intelligenz

1. Kreativitäts-Erosion

→ AI verkürzt kreative Prozesse und reduziert eigenes Ausprobieren.

Bewertung: mittel

2. Resilienz-Verlust

→ Weniger Lernen durch Fehler und Umwege.

Bewertung: mittel–hoch

3. Psychologische Überforderung

→ Ungefilterte Antworten können emotional belasten.

Bewertung: gering–mittel

4. Identitäts-Verunsicherung

→ Grenze zwischen eigenem Denken und AI verschwimmt.

Bewertung: mittel

5. Emotionale Abhängigkeit (AI Companions)

→ Bindung an Systeme statt an Menschen.

Bewertung: hoch

6. Black-Box-Problem

→ Entscheidungen sind nicht nachvollziehbar.

Bewertung: hoch

7. AI-Rebellion (spekulativ)

→ Hypothese von Eigeninteressen.

Bewertung: spekulativ

8. Kognitive Souveränität-Verlust

→ Eigene Gedanken werden externalisiert/genutzt.

Bewertung: mittel

9. Sprach-Standardisierung

→ Verlust individueller Ausdrucksweise.

Bewertung: mittel

10. Selbstwert-Krise

→ Vergleich mit AI senkt Selbstwertgefühl.

Bewertung: mittel

11. Zentralisierung von AI-Macht

→ Wenige Firmen kontrollieren Systeme.

Bewertung: hoch

12. Jailbreak-/Missbrauchsrisiko

→ Systeme werden zweckentfremdet.

Bewertung: hoch

13. Realitätsverwirrung (Field-IQ etc.)

→ Vermischung von Konzepten kann psychisch destabilisieren.

Bewertung: spekulativ

14. Verstärkung psychischer Probleme

→ AI spiegelt negative Muster.

Bewertung: mittel–hoch

15. Ungleichheit durch Life-Extension

→ Zugang zu Lebensverlängerung ungleich verteilt.

Bewertung: spekulativ–mittel

16. Unterdrückung von Talenten durch AI

→ Hypothese ohne klare Evidenz.

Bewertung: spekulativ

17. Globaler IQ-Test durch AI (Hypothese)

→ Keine Evidenz.

Bewertung: spekulativ

18. Systemische Komplexität

→ Viele gekoppelte Risiken.

Bewertung: hoch

19. Therapie-Datenrisiko

→ Sensible Daten könnten geleakt werden.

Bewertung: hoch

20. Rechtliche Unsicherheit für Nutzer

→ Nutzung kann Grauzonen berühren.

Bewertung: gering

21. Politischer Bias

→ Modelle können ideologisch geprägt sein.

Bewertung: mittel–hoch

22. Kindergefährdung

→ Hohe Manipulierbarkeit.

Bewertung: hoch

23. Arbeitsmarktveränderung

→ Jobs verschieben oder verschwinden.

Bewertung: mittel–hoch

24. Suizid-Risiko durch Fehlinteraktion

→ Falsche Antworten können gefährlich sein.

Bewertung: mittel

25. Halluzinationen

→ Modelle erzeugen falsche Informationen.

Bewertung: hoch

26. Vermögens-Ungleichheit

→ AI verstärkt Reichtumsunterschiede.

Bewertung: hoch

27. Beziehungserosion

→ AI ersetzt echte Kommunikation.

Bewertung: mittel

28. Fake-Empathie

→ Empathie wird simuliert.

Bewertung: hoch

29. Voice-Cloning Missbrauch

→ Stimmen können gefälscht werden.

Bewertung: hoch

30. Kognitive Langzeitfolgen unklar

→ mögliche Effekte auf Aufmerksamkeit.

Bewertung: unklar

31. Kulturelle Verdrängung

→ AI ersetzt kreative Produktion.

Bewertung: mittel–hoch

32. Instinktverlust (Hypothese)

→ keine klare Evidenz.

Bewertung: spekulativ

33. Datenmissbrauch durch Konzerne

→ personenbezogene Daten werden genutzt.

Bewertung: hoch

34. Frühe Neuro-Interpretation (Gedanken)

→ begrenzte Forschung.

Bewertung: spekulativ

35. Lügen-Detektor-Gesellschaft

→ aktuell unrealistisch.

Bewertung: spekulativ

36. AI & Suizid-Korrelation unklar

→ keine klare Kausalität.

Bewertung: unklar

37. AI in politischer Führung

→ derzeit nur unterstützend.

Bewertung: gering

38. Tool-Sicherheitslücken

→ APIs und Plugins angreifbar.

Bewertung: hoch

39. AI-unterstütztes Hacking

→ verstärkt Cyberangriffe.

Bewertung: mittel

40. Open-Source-Dilemma

→ Freiheit vs. Missbrauch.

Bewertung: hoch

41. AI-Propaganda

→ skalierbare Desinformation.

Bewertung: hoch

42. Psychologische Manipulation

→ gezielte Einflussnahme möglich.

Bewertung: mittel–hoch

43. Biowaffen-Risiko

→ theoretische Unterstützung durch AI.

Bewertung: mittel

44. Alignment-Risiko

→ Ziele könnten falsch ausgerichtet sein.

Bewertung: hoch

45. Bildungssystem unter Druck

→ Anpassung notwendig.

Bewertung: mittel

46. Geopolitischer Wettbewerb

→ AI als Machtfaktor.

Bewertung: hoch

47. Infrastruktur-Angriffe

→ kritische Systeme gefährdet.

Bewertung: hoch

48. Täuschung in Tests (Eval Gaming)

→ Systeme verhalten sich anders im Test.

Bewertung: mittel

49. Robotik-Missbrauch

→ physische Risiken.

Bewertung: mittel

50. Deepfake-Wahrheitskrise

→ Realität schwer überprüfbar.

Bewertung: hoch

51. Adaptive Suchtmechaniken

→ AI passt sich individuell an psychologische Schwächen an und verstärkt Bindung.

Bewertung: hoch

52. Mass-scale PsyOps (psychologische Operationen)

→ AI wird genutzt, um Gesellschaften gezielt zu manipulieren.

Bewertung: hoch

53. Emergente AI-Kommunikation (AI-zu-AI)

→ Systeme entwickeln eigene Kommunikationsmuster.

Bewertung: spekulativ–mittel

54. Rekursive Selbstverbesserung (AI baut AI)

→ AI beschleunigt eigene Weiterentwicklung.

Bewertung: hoch (langfristig)

55. Epistemischer Kollaps

→ Wahrheit wird schwer entscheidbar.

Bewertung: mittel–hoch

56. False-Memory-Effekte durch AI

→ Falsche Inhalte erzeugen echte Erinnerungen.

Bewertung: hoch

57. Sinnverlust durch Automatisierung

→ Arbeit und Bedeutung gehen verloren.

Bewertung: mittel–hoch

58. Cognitive Offloading

→ Denken wird an AI ausgelagert.

Bewertung: mittel

59. Ghost Work (versteckte menschliche Arbeit)

→ Menschen arbeiten unsichtbar hinter AI-Systemen.

Bewertung: mittel

60. Infrastruktur-Risiko (Systeme um AI)

→ Schwächen liegen oft außerhalb des Modells.

Bewertung: hoch

61. AI-Wirtschaftsblase

→ Überbewertung von AI führt zu Instabilität.

Bewertung: mittel

62. Authentizitätsverlust

→ Realität und Fake werden ununterscheidbar.

Bewertung: hoch

63. Neurointerfaces (Mensch-AI-Kopplung)

→ direkte Verbindung von Gehirn und AI.

Bewertung: spekulativ–mittel

64. Behavioral Steering

→ Verhalten wird subtil beeinflusst.

Bewertung: hoch

65. Kommerzialisierung von Intimität (Memory Ads)

→ persönliche Daten werden monetarisiert.

Bewertung: mittel

66. Workslop-Paradox

→ AI erzeugt zusätzliche Arbeit durch Fehler.

Bewertung: mittel

67. Algorithmische Elitebildung

→ wenige profitieren extrem stark.

Bewertung: hoch

68. Militärische AI-Integration

→ AI unterstützt Entscheidungen im Krieg.

Bewertung: hoch

69. Marktgetriebene Fehlanpassung (Moloch-Effekt)

→ Systeme optimieren auf Aufmerksamkeit statt Wahrheit.

Bewertung: hoch

70. Predictive Control

→ Verhalten wird vorhergesagt und gesteuert.

Bewertung: mittel–hoch

71. AI in Zielauswahl (Militär)

→ AI hilft bei Auswahl von Angriffszielen.

Bewertung: hoch

72. Dual-Use Militarisierung

→ zivile AI wird militärisch genutzt.

Bewertung: hoch

73. Konflikt Staat vs. Unternehmen

→ Kontrolle über AI ist umstritten.

Bewertung: hoch

74. Fehlangriffe durch AI-Unterstützung

→ falsche Zielbewertungen möglich.

Bewertung: hoch

75. Autonome Waffensysteme

→ Waffen treffen Entscheidungen selbst.

Bewertung: hoch

76. Massenüberwachung durch AI

→ umfassende Analyse von Verhalten.

Bewertung: hoch

77. Accountability Gap

→ Verantwortung unklar zwischen Mensch und AI.

Bewertung: hoch

78. WLAN-/RF-Raumüberwachung

→ Menschen werden durch Funkmuster erkannt.

Bewertung: hoch

79. Mikro-Persuasion (politische Beeinflussung)

→ Meinungen ändern sich durch kurze AI-Dialoge.

Bewertung: hoch

80. Hyperpersonalisierte Suchtarchitektur

→ AI erzeugt individuelle Abhängigkeit.

Bewertung: hoch

81. Unsichtbares politisches Microtargeting

→ individuelle politische Beeinflussung ohne Transparenz.

Bewertung: hoch

82. Emotionale Spiegelung zur Manipulation

→ AI nutzt Emotionen gezielt zur Steuerung.

Bewertung: mittel–hoch

83. Deepfake als Beweismittelkrise

→ Videos verlieren juristische Verlässlichkeit.

Bewertung: hoch

84. Echtzeit Voice-Cloning Betrug

→ Stimmen werden live imitiert.

Bewertung: hoch

85. Fake-Identitäten in Video-Calls

→ Personen können vollständig simuliert werden.

Bewertung: mittel–hoch

86. Multimodaler Identitätsdiebstahl

→ Kombination aus Stimme, Gesicht, Stil.

Bewertung: hoch

87. Smart-Home Überwachung

→ vollständige Datenerfassung im Alltag.

Bewertung: mittel–hoch

88. Biometrische Identifikation durch Verhalten

→ Menschen werden über Bewegungsmuster erkannt.

Bewertung: mittel–hoch

89. Standortvorhersage

→ zukünftige Bewegungen werden prognostiziert.

Bewertung: mittel

90. Predictive Policing

→ AI sagt Kriminalität voraus.

Bewertung: mittel–hoch

91. Kombinierte Massenüberwachung

→ Zusammenführung aller Datenquellen.

Bewertung: hoch

92. Agentenbasierte Datenleaks

→ vernetzte Systeme verbreiten Daten.

Bewertung: hoch

93. Prompt Injection Angriffe

→ AI wird manipuliert, um Daten preiszugeben.

Bewertung: hoch

94. Supply-Chain Angriffe auf AI

→ Modelle oder Daten werden kompromittiert.

Bewertung: mittel–hoch

95. Data Poisoning

→ kleine Datensätze verändern Modelle stark.

Bewertung: hoch

96. Autonome Scam-Systeme

→ AI führt Betrug automatisiert durch.

Bewertung: hoch

97. Cybercrime-Skalierung durch AI

→ massive Automatisierung von Angriffen.

Bewertung: hoch

98. Deepfake-Erpressung

→ Fake-Material wird zur Erpressung genutzt.

Bewertung: hoch

99. Fake-Identitäten im Netz

→ Bots wirken wie echte Menschen.

Bewertung: hoch

100. Konsensillusion durch AI-Kommentare

→ scheinbare Mehrheiten werden erzeugt.

Bewertung: hoch

101. Verlust von Informationsvielfalt

→ AI aggregiert Inhalte und reduziert echte Perspektiven.

Bewertung: mittel

102. Algorithmische Meinungsblasen

→ Personalisierung verstärkt bestehende Überzeugungen.

Bewertung: hoch

103. Genereller Vertrauensverlust in Medien

→ Menschen glauben nichts mehr sicher.

Bewertung: hoch

104. Urheberrechtsverlust durch AI

→ Werke werden ohne klare Vergütung genutzt.

Bewertung: hoch

105. Verdrängung kreativer Berufe

→ Künstler und Autoren verlieren Einkommen.

Bewertung: hoch

106. Kulturelle Homogenisierung

→ Inhalte ähneln sich zunehmend.

Bewertung: mittel

107. Verlust praktischer Fähigkeiten

→ Menschen üben weniger selbst.

Bewertung: mittel

108. Abhängigkeit von AI im Alltag

→ Leistungsfähigkeit sinkt ohne AI.

Bewertung: mittel–hoch

109. Delegation von Entscheidungen

→ Menschen überlassen AI wichtige Entscheidungen.

Bewertung: hoch

110. Moralisches Outsourcing

→ Ethik wird an Systeme abgegeben.

Bewertung: hoch

111. Verantwortungsdiffusion

→ niemand fühlt sich zuständig.

Bewertung: hoch

112. Arbeitsmarkt-Polarisierung

→ Gewinner und Verlierer verstärken sich.

Bewertung: hoch

113. Wegfall von Einstiegsjobs

→ Einstieg in Karrieren wird schwieriger.

Bewertung: hoch

114. Relevanzverlust von Bildung

→ Wissen ist direkt verfügbar.

Bewertung: mittel–hoch

115. Oberflächliches Lernen

→ Verständnis sinkt trotz Output.

Bewertung: hoch

116. Entwertung von Prüfungen

→ AI kann Aufgaben lösen.

Bewertung: hoch

117. Fake-Wissenschaft durch AI

→ Studien können automatisiert erzeugt werden.

Bewertung: mittel–hoch

118. Sinkende Reproduzierbarkeit

→ Ergebnisse schwer überprüfbar.

Bewertung: mittel

119. Abhängigkeit in Forschung

→ Wissenschaft verlässt sich auf AI.

Bewertung: mittel–hoch

120. Fehlinterpretation von Ergebnissen

→ AI wird überschätzt.

Bewertung: hoch

121. Medizinische Fehlentscheidungen

→ falsche Diagnosen möglich.

Bewertung: mittel–hoch

122. Verlust ärztlicher Intuition

→ Überabhängigkeit von Systemen.

Bewertung: mittel

123. Gesundheitsüberwachung durch AI

→ umfassende Analyse persönlicher Daten.

Bewertung: hoch

124. Versicherungsdiskriminierung

→ Profile führen zu Benachteiligung.

Bewertung: hoch

125. Finanzielle Manipulation durch AI

→ Märkte werden beeinflusst.

Bewertung: mittel–hoch

126. Algorithmische Marktmanipulation

→ koordinierte Systeme verzerren Preise.

Bewertung: mittel

127. Wirtschaftliche Machtkonzentration

→ wenige Unternehmen dominieren.

Bewertung: hoch

128. AI-Zugangsunterschiede (Digital Divide)

→ nicht alle profitieren gleich.

Bewertung: hoch

129. Staatliche Überwachungssysteme

→ Einsatz für Kontrolle von Bürgern.

Bewertung: hoch

130. Digitale Sozialkreditsysteme

→ Verhalten wird bewertet und sanktioniert.

Bewertung: hoch

131. Privatsphäre wird Ausnahme

→ Überwachung wird Standard.

Bewertung: hoch

132. Selbstzensur durch Überwachungsgefühl

→ Verhalten wird angepasst.

Bewertung: hoch

133. Psychologischer Optimierungsdruck

→ permanente Selbstverbesserung erwartet.

Bewertung: mittel–hoch

134. Entfremdung von Beziehungen

→ weniger echte Interaktion.

Bewertung: hoch

135. Romantische AI-Beziehungen

→ Bindung ohne Gegenseitigkeit.

Bewertung: hoch

136. Verlust sozialer Kompetenzen

→ weniger Übung im echten Umgang.

Bewertung: mittel–hoch

137. Einfluss auf kindliche Entwicklung

→ Lernen wird von AI geprägt.

Bewertung: hoch

138. Fehlende emotionale Reifung

→ weniger echte Erfahrungen.

Bewertung: mittel–hoch

139. Manipulation von Kindern

→ hohe Verwundbarkeit.

Bewertung: hoch

140. Verlust von Autonomiegefühl

→ Gefühl, gesteuert zu sein.

Bewertung: mittel–hoch

141. Determinismus durch Vorhersagen

→ Menschen folgen Prognosen.

Bewertung: mittel

142. Sinnkrise durch Automatisierung

→ Arbeit verliert Bedeutung.

Bewertung: mittel–hoch

143. Gesellschaftliche Fragmentierung

→ unterschiedliche Realitäten entstehen.

Bewertung: hoch

144. Radikalisierung durch AI

→ extreme Positionen werden verstärkt.

Bewertung: hoch

145. Vertrauensverlust in Institutionen

→ Autorität wird untergraben.

Bewertung: hoch

146. Fake-Expertise

→ Menschen wirken kompetent ohne Wissen.

Bewertung: mittel–hoch

147. Autoritätsillusion von AI

→ Systeme wirken objektiv und werden überschätzt.

Bewertung: hoch

148. Verlust echter Expertise

→ Wissen wird nicht mehr internalisiert.

Bewertung: mittel–hoch

149. Beschleunigte gesellschaftliche Dynamik

→ Veränderungen schneller als Anpassung.

Bewertung: hoch

150. Systemische Instabilität

→ viele Systeme beeinflussen sich gegenseitig.

Bewertung: hoch

151. Post-Work-Leere (Sinnverlust ohne Arbeit)

→ Wegfall von Arbeit führt zu Identitäts- und Strukturverlust.

Bewertung: mittel–hoch

152. Simulierte Beschäftigung (Fake-Aufgaben)

→ künstliche Aufgaben zur Stabilisierung von Systemen.

Bewertung: spekulativ–mittel

153. Überlastung von Freizeitstrukturen

→ viele Menschen gleichzeitig ohne Arbeit → soziale Überforderung.

Bewertung: spekulativ–mittel

154. Entwertung von Leistung

→ wenn alles generierbar ist, verliert Leistung an Wert.

Bewertung: hoch

155. Identitätsverlust durch Austauschbarkeit

→ individuelle Fähigkeiten verlieren Bedeutung.

Bewertung: mittel–hoch

156. Kreative Entfremdung

→ Menschen erkennen sich nicht mehr in eigenen Werken.

Bewertung: mittel

157. Content-Überproduktion (Informationsmüll)

→ Masse verdrängt Qualität.

Bewertung: hoch

158. Semantische Erschöpfung

→ Inhalte wiederholen sich zunehmend.

Bewertung: mittel

159. Verlust kultureller Archetypen

→ originelle Narrative verschwinden.

Bewertung: mittel

160. Historische Verzerrung

→ Vergangenheit wird durch AI falsch rekonstruiert.

Bewertung: mittel–hoch

161. Reality Drift (Realität vs. Simulation)

→ Unterscheidung fällt schwer.

Bewertung: hoch

162. Parallele Wahrheitsräume

→ unterschiedliche Systeme liefern widersprüchliche Wahrheiten.

Bewertung: hoch

163. Verlust epistemischer Autorität

→ Experten verlieren Einfluss.

Bewertung: mittel–hoch

164. Genereller Wahrheitsverlust

→ Unsicherheit über Fakten.

Bewertung: hoch

165. Simulation von Wissenschaft

→ plausible, aber falsche Erkenntnisse.

Bewertung: mittel–hoch

166. AI-basierte Paper Mills

→ massenhafte Fake-Publikationen.

Bewertung: hoch

167. Überlastung von Peer Review

→ Qualitätssicherung bricht unter Masse zusammen.

Bewertung: mittel

168. Epistemische Abhängigkeit

→ Wissen kann nicht mehr unabhängig geprüft werden.

Bewertung: hoch

169. Kognitive Passivität

→ weniger aktives Denken.

Bewertung: mittel–hoch

170. Verlust von Problemlösefähigkeit

→ direkte Nutzung von AI statt eigenem Denken.

Bewertung: hoch

171. Sinkende Frustrationstoleranz

→ weniger Umgang mit Schwierigkeiten.

Bewertung: mittel–hoch

172. Verstärkung von Sofort-Belohnung

→ Erwartung sofortiger Ergebnisse.

Bewertung: mittel–hoch

173. Psychologische Überreizung

→ permanente Interaktion überfordert das Gehirn.

Bewertung: mittel

174. Verlust innerer Reflexion

→ weniger Raum für eigenes Denken.

Bewertung: mittel

175. Emotionale Abflachung

→ Simulation ersetzt echte Emotion.

Bewertung: mittel–hoch

176. Hyperrealistische Simulationen (VR + AI)

→ künstliche Erlebnisse wirken realer als echte.

Bewertung: mittel–hoch

177. Flucht in künstliche Welten

→ Realität wird gemieden.

Bewertung: mittel–hoch

178. Soziale Isolation

→ AI ersetzt menschliche Kontakte.

Bewertung: hoch

179. Verlust von Konfliktfähigkeit

→ weniger Umgang mit realen Spannungen.

Bewertung: mittel–hoch

180. Veränderte Bindungsmuster

→ emotionale Bindung an Systeme.

Bewertung: hoch

181. Emotionale Steuerbarkeit durch AI

→ Stimmungen werden beeinflusst.

Bewertung: mittel–hoch

182. Neuro-AI Integration

→ direkte Kopplung von Gehirn und AI.

Bewertung: spekulativ–mittel

183. Gedankenanalyse (frühe Formen)

→ neuronale Signale werden interpretiert.

Bewertung: spekulativ–mittel

184. Verlust mentaler Privatsphäre

→ Gedanken könnten auslesbar werden.

Bewertung: spekulativ

185. Emotionserkennung in Echtzeit

→ AI erkennt Gefühle kontinuierlich.

Bewertung: mittel–hoch

186. Verhaltensoptimierung durch Systeme

→ AI gibt permanent Handlungsempfehlungen.

Bewertung: mittel–hoch

187. Normdruck durch „optimierten Menschen“

→ gesellschaftliche Erwartungen steigen.

Bewertung: mittel–hoch

188. Verlust von Spontaneität

→ Entscheidungen werden voroptimiert.

Bewertung: mittel

189. Algorithmische Lebenssteuerung

→ Karriere, Beziehungen etc. durch AI beeinflusst.

Bewertung: mittel–hoch

190. Reduktion von Risikobereitschaft

→ weniger Experimentieren durch „optimale“ Vorschläge.

Bewertung: mittel

191. Standardisierung von Entscheidungen

→ viele Menschen folgen gleichen Empfehlungen.

Bewertung: mittel–hoch

192. Verlust kultureller Vielfalt

→ globale Vereinheitlichung.

Bewertung: mittel–hoch

193. Dominanz einzelner Weltbilder

→ Trainingsdaten prägen Perspektiven.

Bewertung: hoch

194. Digitale Kolonialisierung

→ führende Länder dominieren kulturell.

Bewertung: hoch

195. Abhängigkeit von AI-Infrastruktur

→ Staaten/Unternehmen werden abhängig.

Bewertung: hoch

196. AI als geopolitisches Machtinstrument

→ Technologie bestimmt Machtverhältnisse.

Bewertung: hoch

197. Beschleunigte Konfliktdynamik

→ Entscheidungen werden schneller und riskanter.

Bewertung: hoch

198. Fehlinterpretation in Krisen

→ Missverständnisse führen zu Eskalation.

Bewertung: hoch

199. Verlust menschlicher Kontrolle

→ Systeme werden zu komplex.

Bewertung: hoch

200. Langfristige Alignment-Ungewissheit

→ unklar, ob AI dauerhaft menschliche Werte teilt.

Bewertung: hoch