Add text from blog with small changes

This commit is contained in:
rfl 2025-08-20 08:04:21 +02:00
parent 89a45956af
commit d90dc88c63
Signed by: rfl
GPG key ID: 48B0E5DDF8FA62EF

View file

@ -1,5 +1,25 @@
# ai-safety-meetup
Die rasante Entwicklung künstlicher Intelligenz schreitet - scheinbar
unaufhaltsam - voran. Mit jedem Fortschritt in Richtung Artificial General
Intelligence (AGI) und möglicherweise Artificial Superintelligence (ASI) wächst
die Herausforderung, diese Systeme mit unseren menschlichen Werten und Zielen in
Einklang zu bringen das sogenannte Alignment-Problem. Trotz der enormen
Tragweite haben wir dieses bislang nicht gelöst, während führende KI-Labore im
Wettlauf um Marktanteile kontinuierlich leistungsstärkere Modelle erforschen.
Experten warnen seit Jahren davor, dass dieses Vorgehen katastrophale Folgen
haben kann. Darum laden wir dich hiermit zum Gründungstreffen des ersten
Kasseler Stammtisch zu KI-Sicherheit ein. Bei unseren regelmäßigen Treffen
(~dritter Donnerstag im Monat) wollen wir aktuelle Entwicklungen im Bereich
besprechen, verschiedene Ansätze zum AI Alignment diskutieren und potenziell
auch darüber nachdenken, wie wir als Individuen zu einer sicheren KI-Zukunft
beitragen können. Wir bringen sowohl technischen Hintergrund mit, als auch
bloßes Interesse für die Thematik, das aus der hohe Relevanz und Priorität von
KI-Sicherheit (auch im Kontrast zu anderen globalen Problemfeldern) erwächst.
Unsere Treffen finden im flipdot e.V. statt. Bei Interesse oder Fragen erreicht
ihr uns unter alignment@flipdot.org oder über Matrix & Co in unserer digitalen
Sofaecke.
| Datum | Thema | Slides |
| ---------------- | ---------------------- | ------ |
| 2025-08-28 19:00 | Das Kontrollproblem | TBD |