ai-safety-meetup
Die rasante Entwicklung künstlicher Intelligenz schreitet - scheinbar
unaufhaltsam - voran. Mit jedem Fortschritt in Richtung Artificial General
Intelligence (AGI) und möglicherweise Artificial Superintelligence (ASI) wächst
die Herausforderung, diese Systeme mit unseren menschlichen Werten und Zielen in
Einklang zu bringen – das sogenannte Alignment-Problem. Trotz der enormen
Tragweite haben wir dieses bislang nicht gelöst, während führende KI-Labore im
Wettlauf um Marktanteile kontinuierlich leistungsstärkere Modelle erforschen.
Experten warnen seit Jahren davor, dass dieses Vorgehen katastrophale Folgen
haben kann. Bei unseren regelmäßigen Treffen (~dritter Donnerstag im Monat) des
wohl ersten Kasseler Stammtisch zur KI-Sicherheit wollen wir aktuelle
Entwicklungen im Bereich besprechen, verschiedene Ansätze zum AI Alignment
diskutieren und potenziell auch darüber nachdenken, wie wir als Individuen zu
einer sicheren KI-Zukunft beitragen können. Wir bringen sowohl technischen
Hintergrund mit, als auch bloßes Interesse für die Thematik, das aus der hohe
Relevanz und Priorität von KI-Sicherheit (auch im Kontrast zu anderen globalen
Problemfeldern) erwächst. Unsere Treffen finden im flipdot
e.V. statt. Bei Interesse oder Fragen erreicht
ihr uns unter alignment@flipdot.org oder über
Matrix in unserer digitalen
Sofaecke.
Datum |
Thema |
Slides |
2025-10-09 19:00 |
Das Ausrichtungsproblem |
TBD |
2025-08-28 19:00 |
Das Kontrollproblem |
TBD |
2025-07-10 19:00 |
Das Ausschalterproblem |
- |
2025-06-12 19:00 |
KI IQ messen(?) |
pdf |
2025-05-15 19:00 |
Kickoff |
- |
Notizpad