ai-safety-meetup/README.md
2025-08-24 16:46:33 +02:00

1.9 KiB
Raw Blame History

ai-safety-meetup

Die rasante Entwicklung künstlicher Intelligenz schreitet - scheinbar unaufhaltsam - voran. Mit jedem Fortschritt in Richtung Artificial General Intelligence (AGI) und möglicherweise Artificial Superintelligence (ASI) wächst die Herausforderung, diese Systeme mit unseren menschlichen Werten und Zielen in Einklang zu bringen das sogenannte Alignment-Problem. Trotz der enormen Tragweite haben wir dieses bislang nicht gelöst, während führende KI-Labore im Wettlauf um Marktanteile kontinuierlich leistungsstärkere Modelle erforschen. Experten warnen seit Jahren davor, dass dieses Vorgehen katastrophale Folgen haben kann. Bei unseren regelmäßigen Treffen (~dritter Donnerstag im Monat) des wohl ersten Kasseler Stammtisch zur KI-Sicherheit wollen wir aktuelle Entwicklungen im Bereich besprechen, verschiedene Ansätze zum AI Alignment diskutieren und potenziell auch darüber nachdenken, wie wir als Individuen zu einer sicheren KI-Zukunft beitragen können. Wir bringen sowohl technischen Hintergrund mit, als auch bloßes Interesse für die Thematik, das aus der hohe Relevanz und Priorität von KI-Sicherheit (auch im Kontrast zu anderen globalen Problemfeldern) erwächst. Unsere Treffen finden im flipdot e.V. statt. Bei Interesse oder Fragen erreicht ihr uns unter alignment@flipdot.org oder über Matrix in unserer digitalen Sofaecke.

Datum Thema Slides
2025-08-28 19:00 Das Kontrollproblem TBD
2025-07-10 19:00 Das Ausschalterproblem -
2025-06-12 19:00 KI IQ messen(?) pdf
2025-05-15 19:00 Kickoff -

Notizpad