Willkommen beim Center for Science and Thought
Neuigkeiten des CST
Zur Unterstützung des Centers for Science and Thought sowie des Forschungsprojekts Desirable Digitalisation suchen wir ab dem 01. September 2024 studentische/wissenschaftliche Hilfskräfte (SHK/WHF) für 9-15h pro Woche.
In ihrem neu erschienen Forschungsartikel "The Absolutism of Data: Thinking Artificial Intelligence with Hans Blumenberg" (Mind and Matter, Volume 21, Number 2, January 2024, S. 167-190.) dikutiert Dr. Audrey Borowski, wie Hans Blumenberg einen nuancierteren Ansatz für die Frage der Indeterminiertheit bietet als aktuelle algorithmischen Systeme, wie auch gleichzeitig ein Korrektiv für potenzielle metaphysischen Abwege.
Dieses Wintersemester findet eine digitale Veranstaltungsreihe statt, welche von der CST KI-Forschungsgruppe organisiert wird.
Wir treffen uns jetzt im CST (Konrad-Zuse-Platz 1-3, 3rd floor). Alle Veranstaltungen werden jedoch in einem hybriden Format organisiert.
Hier finden Sie weitere Pressemitteilungen.
Veranstaltungen des CST
Die Seminarreihe, organisiert von Dr. Audrey Borowski, untersucht die theoretischen Verzweigungen und Implikationen von "KI und dem Digitalen". Gemeinsam mit internationalen Expert*innen sind die Teilnehmer*innen eingeladen, die Verschränkung von Denken und Technologie zu diskutieren.
Die einzelnen Sitzungen werden live gestreamt und aufgezeichnet. Seminarsprache ist englisch.
Start: 08. April 2024, 20 Uhr (CET) / 14 Uhr (ET) / 19 Uhr (GMT)
Am 23. und 24. Mai findet am CST eine Konferenz zum Thema "Humanism and AI" statt.
Das Aufkommen der generativen KI hat ein weltweites Interesse an menschenzentrierter KI geweckt, was zu Diskussionen über Ethik, Datenschutz und über die Rolle des Menschen im Zeitalter der KI Anlass gibt. Dies hat zu einem Wiederaufleben des Humanismus geführt, der in verschiedenen Initiativen weltweit in seiner heutigen Form erforscht wird. Auf der Konferenz sollen die Merkmale dieses neuen Humanismus, seine Verbindungen zu den traditionellen Formen und seine Ausdrucksformen in der heutigen Kultur, Industrie und den Medien erforscht werden.
Since Chat GPT we are witnessing another global AI hype. In his public Mercator-lecture Swiss philosopher Walther Ch. Zimmerli, at present Mercator Visiting Professor for Artificial Intelligence in the Human Context at the Center for Science and Thought (CST), tries to unveil the hidden mechanism behind the undeniable success-stories of AI by reconstructing its history of recurring hype-cycles beginning with what he calls the„Dartmouth Conspiracy“ and Turing’s „rehabilitation of deception“. The underlying suggestive power of the idea of AI, however,must be attributed to its mythical character as is demonstrated both by contrasting the Gartner hype-cycle theory with the philosophy of myth (Blumenberg), and by semiotically explaining it in terms of analogies and metaphors as well as contrasting it with the Singularity- and the Posthumanism-Myth (Kurzweil).
Hier finden Sie weitere Veranstaltungen.
Forschung des CST
Rethinking AI for Just and Sustainable Futures.
Wir untersuchen, wie KI (Künstliche Intelligenz) und andere digitale Technologien verantwortungsvoll gestaltet werden können und stellen dabei Fragen der sozialen Gerechtigkeit und der ökologischen Nachhaltigkeit in den Mittelpunkt unserer Arbeit.
Unsere Forschung in der Zusammenarbeit zwischen den Universitäten Cambridge und Bonn und zahlreichen internationalen Partnern und wird von der Stiftung Mercator in Deutschland gefördert.
Das Projekt "Towards New Demarcation Criteria for Borderline Consciousness" ist ein interdisziplinäres Projekt, an dem Philosoph*innen aus Bonn und Cambridge sowie Neurowissenschaftler*innen der Bonner Epilepsieklinik beteiligt sind. Das Hauptziel des Projekts ist es, ein internationales Forschungsforum zu schaffen, um neue Kriterien zu entwickeln, die bestimmen, ob und wann nicht-menschliche Entitäten wie nicht-sprechende Tiere, neue Hirnorganismen oder fortgeschrittene KI-Systeme als bewusst gelten können.
Erfahren Sie hier mehr über unsere Forschungsprojekte.
tba.
tba.
Melden Sie sich hier für die KI-Mailingliste an.