ai-safety-meetup
Die rasante Entwicklung künstlicher Intelligenz schreitet - scheinbar
unaufhaltsam - voran. Mit jedem Fortschritt in Richtung Artificial General
Intelligence (AGI) und möglicherweise Artificial Superintelligence (ASI) wächst
die Herausforderung, diese Systeme mit unseren menschlichen Werten und Zielen in
Einklang zu bringen – das sogenannte Alignment-Problem. Trotz der enormen
Tragweite haben wir dieses bislang nicht gelöst, während führende KI-Labore im
Wettlauf um Marktanteile kontinuierlich leistungsstärkere Modelle erforschen.
Experten warnen seit Jahren davor, dass dieses Vorgehen katastrophale Folgen
haben kann. Bei unseren regelmäßigen Treffen (zweiter Donnerstag im Monat) des
wohl ersten Kasseler Stammtisch zur KI-Sicherheit wollen wir aktuelle
Entwicklungen im Bereich besprechen, verschiedene Ansätze zum AI Alignment
diskutieren und potenziell auch darüber nachdenken, wie wir als Individuen zu
einer sicheren KI-Zukunft beitragen können. Wir bringen sowohl technischen
Hintergrund mit, als auch bloßes Interesse für die Thematik, das aus der hohe
Relevanz und Priorität von KI-Sicherheit (auch im Kontrast zu anderen globalen
Problemfeldern) erwächst. Unsere Treffen finden im flipdot
e.V. statt. Bei Interesse oder Fragen erreicht
ihr uns unter alignment@flipdot.org oder über
Matrix in unserer digitalen
Sofaecke.
| Datum |
Thema |
Slides |
| 2025-11-13 19:00 |
Über Täuschung und Geheimagenten |
tbd |
| 2025-10-09 19:00 |
Das Ausrichtungsproblem |
pdf (Teil I) |
| 2025-08-28 19:00 |
Das Kontrollproblem |
pdf (Teil II) |
| 2025-06-12 19:00 |
KI IQ messen(?) |
pdf |
| 2025-05-15 19:00 |
Kickoff |
- |
Notizpad