Skepsis bei Deutschen, Haftungsfragen und KI in Forschung & Medizin in der Presseschau 18/37

Home  >>  Presseschau  >>  Skepsis bei Deutschen, Haftungsfragen und KI in Forschung & Medizin in der Presseschau 18/37

Skepsis bei Deutschen, Haftungsfragen und KI in Forschung & Medizin in der Presseschau 18/37

Maschinelles Lernen und neuronale Netzwerke finden immer mehr Anwendungsgebiete und weitere Verbreitung. Schwache Künstliche Intelligenz soll den Menschen helfen, sie unterstützen, Arbeit abnehmen. Perfektion ist jedoch noch nicht zu erwarten, denn auch Algorithmen machen Fehler. Doch wer haftet eigentlich dafür, wenn ein System Mist baut?

Ablehnung und Ängste, aber auch Befürwortung

Die Deutschen stehen dem Einsatz von Künstlicher Intelligenz skeptisch gegenüber. Das ist das Fazit einer Umfrage des internationalen Marktforschungs- und Beratungsinstituts Yougov, über die Tobias Weidemann auf t3n berichtet. Interessant: Je älter der Befragte, desto stärker die Skepsis. Die Ablehnung ist besonders hoch, wenn es um die Bewertung eines Menschen geht – beispielsweise bei Bewerbungsprozessen – oder um autonome Waffen im militärischen Einsatz. Von smarter Software erstellte Berichte über Fußball oder Aktienkurse befürwortete hingegen fast die Hälfte der Umfrageteilnehmer.

Was passiert, wenn KI außer Kontrolle gerät?

Dass mögliche Risiken Ängste befördern, mag auch an der medialen Berichterstattung liegen. So hat gerade diese Woche der Bonner General-Anzeiger einen KI-Schwerpunkt: Darin schreibt Andreas Dyck, wie sich KI „zu einer Gefahr für die Menschheit entwickeln kann“ und er hat mit Professor Christian Brauckhage gesprochen: über die Gefahr von Cyberkriegen, diskriminierenden Systemen und fehlende deutsche Risikobereitschaft. Der dritte Artikel im Bunde ist von Marcel Wolber, der die Frage diskutiert, was passiert, wenn KI missbraucht wird oder außer Kontrolle gerät.

Roboter als „E-Personen“ für Schäden haftbar machen?

Wenn Algorithmen Entscheidungen treffen, lässt sich häufig selbst für deren Programmierer nicht hundertprozentig sagen, wie das System zu seinem Urteil kam. Vor allen Dingen können auch „intelligente“ Maschinen Fehler machen. Doch wer haftet dafür? Das Europäische Parlament hatte 2017 der EU-Kommission empfohlen, zumindest „ausgeklügelte autonome Roboter“ rechtlich als „elektronische Person“ einzustufen. Denn „je mehr sich künstliche Intelligenzen verselbstständigen, desto fraglicher ist es, ihren Betreiber für deren Verhalten in die Verantwortung zu ziehen“, schreibt Pauline Schnor auf welt.de, die mit dem Rechtsanwalt Torsten Kraul über die derzeitige Rechtslage gesprochen hat.

Eine juristische Einordnung ist notwendig, da dürfte Konsens bestehen. Doch „Filme, Feuilletons und Juristen schreiben Robotern immer mehr menschliche Eigenschaften zu“: Julian Nida-Rümelin und Nathalie Weidenfeld sehen darin auf tagesspiegel.de eine Gefahr. Gleichzeitig berichtet Stefan Betschon auf nzz.ch, dass Forscher von Google und der Google-Tochter Deepmind Maschinen empathischer machen wollen.

Wie KI und Roboter die Medizin umkrempeln

Einfühlungsvermögen ist das richtige Stichwort für die nächste Rubrik, denn so mancher Mediziner könnte ein wenig mehr Sensibilität in der Patientenkommunikation vertragen: Vielleicht klappt das zumindest im Bereich der Radiologie zukünftig besser, wenn Künstliche Intelligenz den Fachärzten etwas Arbeit abnimmt. Andreas Menn auf wiwo.de über KI in der Diagnostik und wie sie Heilungschancen massiv verbessern könnte.

Auch nzz.ch nahm sich diese Woche der Digitalisierung der Medizin an: Nicola von Lutterotti versucht dort die Frage zu beantworten, was Drohnen und Roboteranzüge für den Ärzteberuf und die Patienten bedeuten.

Eine Antwort darauf hat der Chef des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI), Professor Wolfgang Wahlster. Es sei revolutionär, „dass der Computer nicht mehr nur Daten digital bereitstellt, verarbeitet und verteilt, sondern, dass er auch den Inhalt von Texten, Bildern und Sensordaten verstehen kann“, schreibt Birgit Reichert auf heise online.

Und kurz zum Schluss

  • Bei De-Cix, dem Betreiber des weltweit größten Internetknotens in Frankfurt am Main hat ein Roboter den Job eines Technikers übernommen und erfüllt jetzt rund um die Uhr jeden Kundenwunsch, berichtet Inga Janovic auf faz.net.
  • Walther Ch. Zimmerli sieht auf nzz.ch die Philosophie vor neuen Aufgaben, denn Digitalisierung und Künstliche Intelligenz entziehen ihr eine wichtige Grundlage.
  • Elmar Krekeler auf welt.de über den Pianisten Olafur Arnalds, der für sein Klavierspiel einen Teil der Kreativität an Künstliche Intelligenz abtritt.
Teilen und Drucken
Email this to someone
email
Share on Facebook
Facebook
Tweet about this on Twitter
Twitter
Print this page
Print

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.