März 2024: Der Research Hub Neuroethics (RHUNE) nimmt seine Arbeit auf!

 

Weitere Informationen zum Projektstart finden sich auf den Seiten des Forschungszentrums Jülich, der Universität Bonn und des Bundesministerium für Bildung und Forschung. 


März 2024: Kick-off Event InVirtuo 4.0

Am 01.03. fand das Kick-off Event des InVirtuo 4.0-Projekts in Bonn statt.

Weitere Informationen zum Projekt finden Sie hier.


Februar 2024: Gastbeitrag bei HIDA – die Helmholtz Information & Data Science Academy

Auf der Webseite der Helmholtz Information & Data Science Academy (HIDA) ist ein Beitrag von Anna Geiger und mir zum Thema "Medizin der Zukunft: Welchen Rahmen braucht KI?" erschienen.

Den Beitrag finden Sie hier.


Februar 2024: Neuer Beitrag in Big Data & Society erschienen

The debate regarding prediction and explainability in artificial intelligence (AI) centers around the trade-off between achieving high-performance accurate models and the ability to understand and interpret the decisionmaking process of those models. In recent years, this debate has gained significant attention due to the increasing adoption of AI systems in various domains, including healthcare, finance, and criminal justice. While prediction and explainability are desirable goals in principle, the recent spread of high accuracy yet opaque machine learning (ML) algorithms has highlighted the trade-off between the two, marking this debate as an inter-disciplinary, inter-professional arena for negotiating expertise. There is no longer an agreement about what should be the “default” balance of prediction and explainability, with various positions reflecting claims for professional jurisdiction. Overall, there appears to be a growing schism between the regulatory and ethics-based call for explainability as a condition for trustworthy AI, and how it is being designed, assimilated, and negotiated. The impetus for writing this commentary comes from recent suggestions that explainability is overrated, including the argument that explainability is not guaranteed in human healthcare experts either. To shed light on this debate, its premises, and its recent twists, we provide an overview of key arguments representing different frames, focusing on AI in healthcare.

Den vollständigen Beitrag gibt es hier.


Februar 2024: Neuer Beitrag in Intelligence-Based Medicine erschienen

Aus dem Forschungsprojekt AI-PHCA heraus ist diese Überblicksarbeit zur Nutzung von KI zum Monitoring der Entwicklung von Kindern erschienen.

Den vollständigen Beitrag kann man hier lesen.


Dezember 2023: Beitrag zu KI in "effzett - Das Magazin aus dem Forschungszentrum Jülich" erschienen

Ist das sicher?

KI etabliert sich mehr und mehr als Werkzeug in der Wissenschaft. Wer es nutzen will, sollte auch um die Beschränkungen dieser Methoden wissen: Wieweit lässt sich den Ergebnissen eines Algorithmus trauen? Wie viel Kontrolle ist möglich? [weiter lesen]


Dezember 2023: Beitrag zum Thema "Artificial Intelligence and Rational Discourse"erschienen

 

Artificial Intelligence and Rational Discourse

The term ›artificial intelligence‹ (AI) which John McCarthy invented for the famous Dartmouth Summer Research Project on Artificial Intelligence proposal he submitted to the Rockefeller Foundation in 1955 with his colleagues Marvin Minsky, Nathaniel Rochester, and Claude Shannon, has always been controversial. It might, therefore, seem idle to make it the subject of an examination again. However, the term has been almost omnipresent for several years now and it has significantly shaped debates about many technical developments. It is not only the word ›artificial intelligence‹, but also the divergent meanings, or rather, the promises, that many associate with it that have made it controversial. In this paper, I aim at presenting some thoughts on the notion of artificial intelligence and finally place a second notion—that of rational discourse—alongside the former one. In this way, I hope to introduce a perspective that moves the infamous, but in my view over-emphasized question ›When will machines have surpassed us in X?‹ aside. The more interesting question, I submit, is ›Who is ›us‹?‹.


Dezember 2023: IWE in 2 Minutes

Bert heads the neuroethics section at IWE. Neuroethics, broadly conceived, is the branch of applied ethics that deals with scientific research and technological developments related to the human brain. Among other things, he is coordinator of the collaborative project FRAIM, which deals with AI-based diagnostics in neuromedicine.


November 2023: Teilnahme an der "Werkstatt des Wandels" in Erlangen

Am 07. November durfte ich an einem Werkstattgespräch zur der Frage teilnehmen, wie in der Gesundheitsversorgung Hürden des technologischen Wandels genommen werden können und der Umbau in Richtung einer nachhaltigen und zukunftsfesten Gesellschaft gelingen kann. Das Werkstattgespräch fand im Rahmen der Veranstaltungsreihe "Werkstatt des Wandels" statt, die Bundespräsident Frank-Walter Steinmeier ins Leben gerufen hat.  Weitere Informationen finden Sie hier.


Oktober 2023: Teilnahme an der 7th General Assembly des AI-Mind Project

Am 19. und 20. Oktober fand die Generalversammlung des AI-Mind Projekt in Helsinki statt. Seit Anfang des Jahres bin ich als External Ethics Advisor an diesem interessanten Projekt beteiligt. Weitere Informationen zur Generalversammlung sowie zum Projekt finden Sie hier.


August 2023: Studiogespräch zum Thema "Gedankenlesen" in der Aktuellen Stunde des WDR

In der Aktuellen Stunde vom 19. August habe ich mit Moderator Thomas Bug ein Gespräch zum Thema "Gedankenlesen" geführt. Hier finden Sie eine Aufzeichnung des Gesprächs.


August 2023: Zu Gast in der Lebenszeit des Deutschlandfunk

In der Sendung Lebenszeit des Deutschlandfunk habe ich zusammen mit den Wissenschaftsjournalisten Ranga Yogeshwar und Piotr Heller und der Moderatorin Daniela Wiesler das Thema „Künstliche Intelligenz im Alltag – Sehen Sie mehr Chancen oder Risiken?“ diskutiert. Hier können Sie die Sendung nachhören.


Juli 2023: Künstliche Intelligenz - Zwischen Hype und Hysterie

Ein Gespräch mit dem Jülicher Wissenschaftler Prof. Bert Heinrichs, Leiter der Forschungsgruppe „Neuroethik und Ethik in der KI“ am Institut für Neurowissenschaften und Medizin – Gehirn und Verhalten.

Es vergeht kaum eine Woche, in der nicht vor den dramatischen Auswirkungen der rasanten Entwicklung im Bereich der künstlichen Intelligenz (KI) gewarnt wird. Zuletzt hat eine Gruppe renommierter Persönlichkeiten um den Chef des Unternehmens Open AI, Sam Altman, medienwirksam gefordert: „Die Minderung des Risikos der Auslöschung durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein.“ Weiter lesen


April 2023: Beiträge im Handbuch Angewandte Ethik erschienen

In der Neuauflage des Handbuchs Angewandte Ethik sind die Beiträge zu den Stichwörtern "Forschungs- und Wissenschaftsethik" und "Bioethik" erschienen.


April 2023: Neue Publikation zum Thema KI erschienen

In der Fachzeitschrift Medizinrecht (Heft 41) ist ein Beitrag mit dem Titel "Künstliche Intelligenz in der Medizin" erschienen. Der Beitrag ist aus dem Forschungsprojekt FRAIM heraus entstanden.