# ai-safety-meetup Die rasante Entwicklung künstlicher Intelligenz schreitet - scheinbar unaufhaltsam - voran. Mit jedem Fortschritt in Richtung Artificial General Intelligence (AGI) und möglicherweise Artificial Superintelligence (ASI) wächst die Herausforderung, diese Systeme mit unseren menschlichen Werten und Zielen in Einklang zu bringen – das sogenannte Alignment-Problem. Trotz der enormen Tragweite haben wir dieses bislang nicht gelöst, während führende KI-Labore im Wettlauf um Marktanteile kontinuierlich leistungsstärkere Modelle erforschen. Experten warnen seit Jahren davor, dass dieses Vorgehen katastrophale Folgen haben kann. Bei unseren regelmäßigen Treffen (~dritter Donnerstag im Monat) des wohl ersten Kasseler Stammtisch zur KI-Sicherheit wollen wir aktuelle Entwicklungen im Bereich besprechen, verschiedene Ansätze zum AI Alignment diskutieren und potenziell auch darüber nachdenken, wie wir als Individuen zu einer sicheren KI-Zukunft beitragen können. Wir bringen sowohl technischen Hintergrund mit, als auch bloßes Interesse für die Thematik, das aus der hohe Relevanz und Priorität von KI-Sicherheit (auch im Kontrast zu anderen globalen Problemfeldern) erwächst. Unsere Treffen finden im [flipdot e.V.](https://flipdot.org/kontakt/) statt. Bei Interesse oder Fragen erreicht ihr uns unter [alignment@flipdot.org](mailto:alignment@flipdot.org) oder über [Matrix](https://matrix.to/#/#general:flipdot.org) in unserer digitalen Sofaecke. | Datum | Thema | Slides | | ---------------- | ---------------------- | ------ | | 2025-08-28 19:00 | Das Kontrollproblem | TBD | | 2025-07-10 19:00 | Das Ausschalterproblem | - | | 2025-06-12 19:00 | KI IQ messen(?) | [pdf](https://code.flipdot.org/rfl/talks/src/branch/main/2025-06-12-ai-safety-meetup/talk.pdf) | | 2025-05-15 19:00 | Kickoff | - | [Notizpad](https://pad.flipdot.org/vyPfXNenQiOF30rybMsQjQ)