-
Frage gestellt von back14pan an Elisabeth, Christoph, Christina am 17 Jun 2022.
-
Christoph Palm Beantwortet am 17 Jun 2022:
Eine sehr allgemeine Frage, die ich nicht in allen Aspekten beantworten kann. Aber um mal einen Anfang zu machen:
Eine der Herausforderungen (klingt besser als „Probleme“ 😉 ) bei der KI ist die Verfügbarkeit von Trainingsdaten in ausreichender Menge und Qualität. Ein KI-System lernt aus Daten zusammen mit der Information, was bei der Vorhersage herauskommen soll. Zumindest ist das beim häufig verwendeten überwachten Lernen so. In der Medizinischen Bildanalyse sind das z.B. Bilder, in denen ein Tumor als Kontur eingezeichnet ist. Diese Einzeichnung nennt man Annotation und wird in der Regel von einer Ärztin bzw. einem Arzt von Hand vorgenommen. Das braucht unheimlich viel Zeit, wenn man bedenkt, dass man für ein KI-System gerne einmal mehrere tausend annotierte Daten benötigt.
Eine weitere Herausforderung ist es, dass häufig die KI-Systeme als Black-Boxen empfunden werden. Eigentlich weiß natürlich die/der Programmierer*in ganz genau, was mathematisch und programmiertechnisch bei einem KI-System angelegt ist und man kann z.B. die Parameter eines neuronalen Netzes auch abspeichern und jedem zeigen. Nur: kein Mensch versteht tatsächlich genau, was da gelernt wurde und warum genau diese Parameter zu genau dieser Vorhersage führt. Eine Ärztin/Ein Arzt möchte aber gerne nachvollziehen können, wie ein KI-System zu einer Entscheidung gekommen ist. Das ist eine Frage von Vertrauen in die Ergebnisse. Wenn ich die nachvollziehen kann, dann kann ich die auch abnicken oder eben intervenieren, wenn ich das Ergebnis für nicht plausibel halte. Es gibt zwar Ansätze der erklärbaren KI, aber von einem echten Verstehen der Vorgänge sind wir noch entfernt.
Eine dritte Herausforderung ist die Messung der Qualität einer KI. Letztlich soll eine KI auf neuen Daten gut funktionieren und nicht unbedingt auf den Trainingsdaten. Allerdings bedeuten neue Daten oft, dass sie aus einer anderen Klinik kommen, von einem anderen Arzt mit einer anderen Kamera aufgenommen wurden. Damit trotzdem umgehen zu können, nennt man Generalisierungsfähigkeit. Aber wo fängt das an und wo hört das auf? Wenn die Testdaten sehr unterschiedlich sind, kann man fragen, ob das fair und sinnvoll ist. Wenn ich ein System trainiere, das Hund und Katzen unterscheiden kann, dann darf ich nicht meckern, dass es keine Igel erkennt.
-
Kürzlich gestellte Fragen
-
Haben Sie durch ihre Untersuchungen über Hautkrankheiten etwas neues erfahren? Waren Sie bis jetzt für ihren Ziel
-
Wie kann man die Informatik im feld der Biologie verwenden?
-
In der heutigen Popkultur findet man sehr viele Fälle von einer „menschenhassender“ KI nachdem sie ein Bewusstsein
-
Ist der Einsatz von Künstlicher Intelligenz überhaupt in allen Lebensbereichen erstrebenswert oder gibt es auch
-
Was würde geschehen, wenn bei einer Operation beispielsweise die Technik versagt und ein Arzt nicht rechtzeitig
Kommentare
Svenja commented on :
Ich schließe mal an die Antwort von Christoph und die Herausforderung in Bezug auf die vorhandenen Daten an. In ethischen Diskussionen um KI wird viel diskutiert, wie wir mit einer Gefahr der Diskriminierung durch KI basierte Technologien umgehen sollten. KIs interagieren nicht unmittelbar mit der Welt, sondern sie werden von uns mit ‚Daten‘ gefüttert. Die Ergebnisse, die sie liefern, können aber nur so gut sein, wie die Daten, die sie bekommen haben.
KIs selbst haben vermutlich keine Vorurteile, wie wir Menschen. Aber sie übernehmen ‚Vorurteile‘, wenn diese in den Daten stecken. Wenn aktuell in den USA Menschen mit schwarzer Hautfarbe etwa weniger und günstigere Therapien in Anspruch nehmen, und die KI daraus lernt, dann prognostiziert sie eventuell, dass diese Menschen weniger Therapien brauchen. Das ist aber quatsch! Das das so ist, hat nichts mit dem Bedarf und viel mit einer ungerechten Gesellschaft zu tun.
Ein anderes Beispiel: Künstliche Intelligenzen können heute eine Beitrag zur Erkennung von Hautkrebs leisten. Sie sind allerdings wesentlich besser bei der Erkennung von Hautkrebs auf weißer Haut als auf dunkler Haut – weil sie an entsprechenden Daten trainiert wurden…
Ein ‚Problem‘ in der KI Wissenschaft, wenn man so will, liegt also darin, dass wir sehr genau aufpassen müssen, an welchen Daten wir künstliche Intelligenzen trainieren, und welche Fehler oder Vorurteile möglicherweise in diesen Daten stecken.
Karsten commented on :
Aus philosophischer Sicht gilt als eine der großen Fragen, ob Maschinen — also KI-Systeme — womöglich irgendwann selbst denken können so wie Menschen. Vor einigen Tagen begann tatsächlich wieder einmal eine Diskussion darüber (siehe bspw. hier: https://www.heise.de/news/Hat-Chatbot-LaMDA-ein-Bewusstein-entwickelt-Google-beurlaubt-Angestellten-7138314.html). Dummerweise, und das ist das Problem, ist es gar nicht so einfach zu definieren, was es eigentlich heißt, dass etwas oder jemand denkt. Mit anderen Worten: Es ist nicht einfach zu messen, ob etwas oder jemand denkt (es geht hierbei nicht um Intelligenzmessung, das ist noch einmal etwas anderes). Es gibt kein Metermaß des Denkens, keine Skala, die uns anzeigt, ob etwas oder jemand denkt. Dabei wäre eine solche Skala sehr hilfreich, denn wenn wir bspw. wüssten, welche Tiere in welchem Maße denken, dann würden wir vielleicht unseren Umgang mit diesen Tieren überdenken (müssen). Wir sind geneigt, Delphinen oder Menschenaffen zuzusprechen, dass sie denken. Aber wie sieht es aus mit Vögeln, Fischen, Schmetterlingen, Schnecken? Wir neigen dazu, diesen Tieren das Denken abzusprechen. Das hat weitreichende moralische Konsequenzen. Nun bauen wir aber Maschinen — KI-Systeme — die zumindest in mancher Hinsicht den Eindruck machen, dass sie denken. Das wirft die Frage auf, was wir mit ihnen tun dürfen.
Tatsächlich ist die Frage „Können Maschinen denken“ schon recht alt: Alan M. Turing hat sie 1950 in seinem Aufsatz „Computing Machinery and Intelligence“ gestellt und gleichzeitig ein Verfahren angegeben, wie man messen könnte, ob eine Maschine denkt. Aber seine Antwort wird bis heute kontrovers diskutiert.