1.9 KiB
ai-safety-meetup
Die rasante Entwicklung künstlicher Intelligenz schreitet - scheinbar unaufhaltsam - voran. Mit jedem Fortschritt in Richtung Artificial General Intelligence (AGI) und möglicherweise Artificial Superintelligence (ASI) wächst die Herausforderung, diese Systeme mit unseren menschlichen Werten und Zielen in Einklang zu bringen – das sogenannte Alignment-Problem. Trotz der enormen Tragweite haben wir dieses bislang nicht gelöst, während führende KI-Labore im Wettlauf um Marktanteile kontinuierlich leistungsstärkere Modelle erforschen. Experten warnen seit Jahren davor, dass dieses Vorgehen katastrophale Folgen haben kann. Bei unseren regelmäßigen Treffen (~dritter Donnerstag im Monat) des wohl ersten Kasseler Stammtisch zur KI-Sicherheit wollen wir aktuelle Entwicklungen im Bereich besprechen, verschiedene Ansätze zum AI Alignment diskutieren und potenziell auch darüber nachdenken, wie wir als Individuen zu einer sicheren KI-Zukunft beitragen können. Wir bringen sowohl technischen Hintergrund mit, als auch bloßes Interesse für die Thematik, das aus der hohe Relevanz und Priorität von KI-Sicherheit (auch im Kontrast zu anderen globalen Problemfeldern) erwächst. Unsere Treffen finden im flipdot e.V. statt. Bei Interesse oder Fragen erreicht ihr uns unter alignment@flipdot.org oder über Matrix in unserer digitalen Sofaecke.
Datum | Thema | Slides |
---|---|---|
2025-08-28 19:00 | Das Kontrollproblem | TBD |
2025-07-10 19:00 | Das Ausschalterproblem | - |
2025-06-12 19:00 | KI IQ messen(?) | |
2025-05-15 19:00 | Kickoff | - |