Zum Inhalt springen

Künstliche Intelligenz


Künstliche Intelligenz oder auch Artificial Intelligence

Was ist überhaupt Künstliche Intelligenz?

Die KI, einfach erklärt, ist der Versuch, menschliches Lernen und Denken auf den Computer zu übertragen und ihm damit Intelligenz zu verleihen. Statt für jeden Zweck programmiert zu werden, kann eine KI eigenständig Antworten finden und selbstständig Probleme lösen. Ziel der KI-Forschung ist es seit jeher, die Funktion unseres Gehirns und unseres Geists einerseits zu verstehen und andererseits künstlich nachbauen zu können. Der Traum von künstlicher Intelligenz ist älter als der Computer selbst – sei es Frankensteins Monster oder künstlich erschaffene Menschen wie der Homunculus.

Konzepte und Definitionen

Um im Themengebiet KI und Big Data mitreden zu können, ist es zunächst wichtig, zu verstehen, worüber überhaupt geredet wird. Denn oft werden verschiedene Begriffe ungenau, missverständlich oder sogar falsch gebraucht. Die folgende interaktive Mindmap stellt die wichtigsten Aspekte im Themenfeld anschaulich dar und bietet einen Überblick über die verschiedenen Definitionen.

Definitionen KI

Vor allem in der Science Fiction begegnete uns bisher der Begriff „künstliche Intelligenz“ und meint zumeist Roboter oder Computer, die selbstständig denken und handeln können. Ob im Guten, wie der Android „Data“ aus „Star Trek“ oder im Bösen wie der Computer HAL aus dem Film „2001: Odyssee im Weltraum“. Sie sind in der Kunst ein Mittel, um Fragen über uns selbst zu stellen: Was macht einen Menschen aus? Was ist Intelligenz?
Wenn wir in der heutigen Welt von KI sprechen, hat das jedoch wenig mit dem zu tun, was wir aus Filmen und Büchern kennen. Im echten Leben begegnen uns KIs nur versteckt. Beispielsweise wenn uns auf Amazon neue Produkte empfohlen werden, wenn Personen auf Foto automatisch erkannt werden oder wir mit „Alexa“ oder „Siri“ auf unserem Handy plaudern.

Was macht eine KI aus

Im Weiteren reden wir deshalb nur noch über schwache KI, da sie letztlich die einzige heute kommerziell relevante Form ist. Schwache KIs finden wir heute im Alltag in unseren Handys und Computern.

Was unterscheidet nun eine KI von einem simplen Programm? Üblicherweise schreibt ein*e Programmierer*in Codes in einer Sprache nach Wahl, die aus einem Satz an beliebig komplexen Anweisungen besteht:

Wenn dies - dann das: Wenn der User auf „Senden“ drückt, schicke die E-Mail an den Server X.

Ein solches System nennt man auch regelbasiert. Bei einer künstlichen Intelligenz gibt der/die Programmierer*in nun nicht jeden einzelnen Schritt vor, sondern schreibt einen Algorithmus, der selbstständig in der Lage ist, diese Schritte zu erstellen. Warum ist das wichtig? Weil bestimmt Probleme so kompliziert sind, dass es unmöglich ist, dafür einen Code zu schreiben.

Ein Beispiel dafür ist etwa die Bilderkennung, die in sozialen Medien wie Facebook benutzt wird: Kein*e Programmierer*in auf der Welt kann einen Satz an Anweisungen schreiben, der immer erkennt, wie ich aussehe, ganz gleich, ob das Foto nachts, am Strand oder im Auto aufgenommen wurde. In einem regelbasierten System wäre das vollkommen unmöglich, denn dazu müsste der/die Programmierer*in alle Fälle im vornherein kennen und mühsam eintippen.

Eine KI kennt auch nicht jedes Bild von mir, aber sie kann aus einer Anzahl an vorhandenen Bildern lernen, wie ich aussehe und diese Regel dann auf neue Bilder übertragen, um mich zu erkennen. Und das nicht nur mit mir, sondern mit Milliarden Gesichtern in Bruchteilen von Sekunden. Eine KI ist also in der Lage, mit bisher unbekannten Daten umzugehen, Muster zu finden oder Handlungen daraus abzuleiten. Sie lernt eigenständig aus den ihr vorliegenden Daten. Was sie lernt, wird dabei aber vom Menschen vorherbestimmt, indem dieser die KI gestaltet. Sie sind damit weitaus mächtiger als regelbasierte Systeme, da sie auf – im gewissen Rahmen – bisher unbekannte Situationen reagieren können und aus Erfahrung lernen.

Algorithmen arbeiten mit Klassifizierungen

Ein zentrales Merkmal von KI ist die Klassifizierung, das heisst die Zuordnung von einzelnen Daten zu bestimmten Gruppen. Diese Klassifizierungen können sinnvoll eingesetzt werden, beispielsweise durch die Verknüpfung einer Vielzahl von Vitaldaten, welche die frühzeitige Erkennung von Krankheiten ermöglichen. Klassifikationen sind jedoch insbesondere dann problematisch, wenn sie auf sogenannte Human-Daten angewendet werden, also Daten, die im Zusammenhang mit einer bestimmten Person stehen. Diese Daten spiegeln unsere aktuelle Realität wider, die geprägt ist von diskriminierenden Machtstrukturen, Vorurteilen und Ungerechtigkeit. Auf Basis dieser Daten reproduzieren die Systeme fast zwangsläufig gesellschaftliche Diskriminierungsstrukturen, Rassismus, Sexismus, Klassismus (soziale Herkunft, sozial/ökonomische Position innerhalb der Gesellschaft), Ableismus (nicht behindertenfeindlich), Vorurteile und Machtstrukturen.

Wenn ein Algorithmus und eine darauf basierende Technologie also nur so objektiv sind, wie die Wissenschaftler*innen, die sie mitentwickelt haben, können sich für diskriminierte Gruppen oder Individuen durch die Verwendung der Technologien leicht gesellschaftliche Türen öffnen oder schliessen. Die folgenden Beispiele sollen die diskriminierende Verwendung von KI veranschaulichen.

Diskriminierung bei der Gesichtserkennung

Technologien zur Gesichtserkennung (englisch: Facial Recognition) finden heutzutage breite Anwendung. Gesichtserkennung ist nicht nur als personalisierendes Feature in Smartphones oder zur Erkennung von Freund*innen auf Social Media präsent, sondern wird auch zur Strafverfolgung angewandt. Gleichzeitig ist sie ein gutes Beispiel für ein Tool, mit dem grosse Gefahren verbunden sind, und zwar vor allem wieder in Bezug auf an den Rand der Gesellschaft gedrängte Bevölkerungsgruppen.

Gesichtserkennungstechnologien sind unter anderem erwiesenermassen weniger erfolgreich bei Schwarzen und weiblichen Menschen, da in den Datenbanken, mit denen die Systeme trainiert wurden, überwiegend Bilder von Männern mit heller Hautfarbe enthalten waren und deshalb bei der Gesichtserkennung anderer Gruppen schlechter funktionieren. Dies kann und wird im schlimmsten Fall dazu führen, dass Benachteiligte fälschlicherweise für Straftaten verurteilt werden, da der Algorithmus bei ihnen mit grösserer Wahrscheinlichkeit falsch liegt.

Diskriminierung auf dem Arbeitsmarkt

Bei der Auswahl von Bewerber*innen greifen manche Unternehmen auf algorithmische Entscheidungssysteme, die Bewerbungsprofile nach bestimmten Qualifikationen und Schlagwörter durchsuchen und somit eine Vorauswahl treffen. Der Auswahlprozess soll dadurch effizienter nach klar definierten Kriterien verlaufen. Subjektiv empfundene Meinungen der Personalmanager*innen haben dadurch keinen Einfluss mehr – könnte man meinen.

Die Daten jedoch, die als Grundlage für den Auswahlprozess bereitgestellt werden, sind in der Regel verzerrt. Sind beispielsweise Frauen im Unternehmen bereits in der Vergangenheit benachteiligt worden, spiegelt sich das im Datensatz wider. Ein Algorithmus verknüpft anhand der Daten das Geschlecht mit einer niedrigeren Erfolgswahrscheinlichkeit und trägt das Vorurteil somit weiter. Dieser Fall wurde unter anderem bei dem Unternehmen Amazon bekannt, welches anhand verzerrter Daten jahrelang Männer für den technologischen Bereich bei der Stellenvergabe bevorzugte.

Eine Frage der Ethik

Generell gilt: Je komplexer die Entscheidungen sind, die an KI-gesteuerte Systeme delegiert werden, umso schwieriger werden auch die damit zusammenhängenden ethischen Fragestellungen. In Bezug auf selbstfahrende Autos beispielsweise muss früher oder später eine Antwort darauf gefunden werden, ob in einer unvermeidlichen Unfallsituation mögliche Opfer anhand persönlicher Merkmale wie Alter oder Geschlecht bewertet werden dürfen.

Die Machine-Learning-Systeme treffen hierdurch, wie auch im Bereich autonomer Waffensysteme, im Zweifelsfall also Entscheidungen über Leben oder Tod. Es liegt auf der Hand, dass hier ein umfangreicher gesellschaftlicher Diskurs nötig ist. Künstliche Intelligenz, Algorithmen, Big Data und alles, was dazugehört, prägen unsere Zeit wie kaum eine andere Entwicklung. Einige Forscher*innen und Wissenschaftler*innen sprechen daher von einer vierten industriellen Revolution, „die unsere Art zu leben, zu arbeiten und miteinander umzugehen grundlegend verändern wird“.

Fazit

Ohne Kenntnisse über die Mechanismen hinter der Verwendung von algorithmischen Entscheidungssystemen wird es nicht möglich sein, diese gesellschaftlichen Prozesse zu verstehen und kritisch bewerten zu können.

Kennst du Sophia schon?

Sophia ist eine künstliche Intelligenz: Der, laut Hersteller, menschlichste Roboter der Welt soll jetzt viele Geschwister bekommen und in Serie gehen. Sophia ist mittlerweile schon eine Celebrity-Grösse. Denn sie hatte bereits ein „Date“ mit Will Smith, redete schon mit Angela Merkel und plauderte mit Jimmy Fallon in seiner Talkshow. Von Saudi Arabien wurde ihr sogar die Staatsbürgerschaft verliehen.

Entwickelt wurde Sophia von David Hanson. Diese künstliche Intelligenz ist laut Firmen-Beschreibung „die am meisten menschliche von allen“. Für „Hanson Robotics“, einer Firma mit Sitz in Hong Kong, ist Sophia auch ein Experimentierfeld dafür, was AI (also Artificial Intelligence) alles können soll. Für die Gesichtszüge von Sophia hatte sie zwei der ganz grossen Frauen der Geschichte als Vorbild: die ägyptische Königin Nefertiti und die grosse Hollywood-Ikone Audrey Hepburn (1929 bis 1993). Jetzt hat die Firma angekündigt den Prototypen Sophia in Serie zu schicken und ihn für Haushalte weltweit zu produzieren.

Quellen:




Zuletzt aktualisiert: 09/2023
Cookie Consent Banner von Real Cookie Banner