Zum Inhalt springen
Zur Ausgabe
Artikel 11 / 18

Maschinelles Lernen und Ethik Wie Sie Maschinen zähmen

Selbstlernende Systeme steigern die Effizienz und lösen Probleme. Doch sie handeln auch unmoralisch und machen Fehler. Was Sie als Mensch über Maschinen wissen müssen, um den richtigen Rahmen zu setzen.
aus Harvard Business manager 5/2021
Foto:

Gregory Reid

Sie können den Artikel leider nicht mehr aufrufen. Der Link, der Ihnen geschickt wurde, ist entweder älter als 30 Tage oder der Artikel wurde bereits 10 Mal geöffnet.

Was passiert, wenn maschinelles Lernen zweifelhafte Ergebnisse produziert? Wenn der Einsatz von Computerprogrammen, die neue Informationen sammeln und in ihre Entscheidungen integrieren, Verluste bei der Geldanlage verursacht? Beim Recruiting oder bei der Kreditvergabe zu Diskriminierungen führt oder Verkehrsunfälle zur Folge hat? Sollten Unternehmen intelligenten Produkten und Dienstleistungen erlauben, sich selbstständig weiterzuentwickeln? Oder sollten sie ihre Algorithmen daran hindern und sie stattdessen regelmäßig selbst aktualisieren? Wann und wie oft sollten diese Aktualisierungen stattfinden? Und: Wie sollen Firmen die Risiken solcher Entscheidungen bewerten und verringern?

Spätestens jetzt, da künstliche Intelligenz (KI) auf Basis maschinellen Lernens immer mehr Angebote und Prozesse in Unternehmen bestimmt, müssen Entscheiderinnen, Manager und Boards Antworten auf diese Fragen finden. In diesem Artikel stellen wir Grundkonzepte vor, die helfen, die potenziellen Nachteile, die diese Technologie mit sich bringen kann, zu verstehen und zu steuern. Er basiert auf den Erkenntnissen, die wir während unserer Arbeit in den Bereichen Gesundheitsrecht, Ethik, Regulierung und maschinelles Lernen gesammelt haben.

Risiken maschinellen Lernens

Der wesentliche Unterschied zwischen maschinellem Lernen und den bisherigen digitalen Technologien liegt in der Fähigkeit der Systeme, selbstständig zu lernen. So können sie immer komplexere Entscheidungen unabhängig und selbstständig treffen. Etwa wenn es darum geht, welche Finanzprodukte für ein Anlageportfolio gekauft und verkauft werden sollen. Oder darum, wie Fahrzeuge am besten auf Hindernisse reagieren oder Krankheiten diagnostiziert werden können. Selbstlernende Systeme entwickeln sich dabei auf der Grundlage von neuen Daten und Erkenntnissen ständig weiter. Das Problem: Die Algorithmen funktionieren nicht völlig problemlos. Sie machen Fehler. Und nicht immer sind ihre Entscheidungen ethisch einwandfrei. Für die Schwierigkeiten gibt es drei Gründe.

Kompakt

Das Problem
Es gibt immer mehr Produkte und Services auf der Basis selbstlernender Systeme. Sie bringen allerdings auch eine Reihe neuartiger Risiken mit sich, weil sie nicht immer richtige oder moralische Entscheidungen treffen.

Die Ursachen
Erstens treffen Maschinen ihre Entscheidungen häufig auf der Basis von Wahrscheinlichkeiten. Zweitens kann sich das Umfeld auf unvorhergesehene Art und Weise verändern. Drittens erschwert die Komplexität solcher Systeme eine klare Bewertung, ob und warum ein maschinell lernendes System einen Fehler gemacht hat.

Die Lösung
Managerinnen und Manager müssen entscheiden, ob sie maschinellen Systemen erlauben wollen, sich selbst weiterzuentwickeln, oder lieber abgeriegelte Versionen einführen, die regelmäßig und kontrolliert aktualisiert werden. Darüber hinaus sollten sie die Angebote vor der Markteinführung gründlich testen und danach überwachen.

Erstens: Algorithmen arbeiten in der Regel mit Wahrscheinlichkeiten. Zum Beispiel bei der Beurteilung, ob jemand einen Kredit nicht zurückzahlen kann oder krank wird. Da Algorithmen sehr viele Entscheidungen treffen, liegen sie in manchen Fällen nahezu zwangsläufig daneben. Die Fehlerwahrscheinlichkeit hängt dabei von vielen Faktoren ab. Entscheidend ist unter anderem die Menge und Qualität der Daten, mit denen ein Algorithmus angelernt wurde.

Auch die zugrunde liegende Machine-Learning-Methode spielt eine Rolle. Fachleute unterscheiden beispielsweise zwischen Deep Learning auf Basis von mathematischen Modellen und Klassifikationsbäumen auf der Grundlage von Entscheidungsregeln. Wichtig ist zudem, ob ein System mit erklärbaren Algorithmen arbeitet. Also solchen, bei denen Menschen begründen können, wie der Algorithmus seine Entscheidungen trifft. Was einleuchtend klingt, erhöht das Risiko von Fehleinschätzungen: Verwendet ein System ausschließlich diesen Typus, erreicht der Algorithmus unter Umständen nicht die optimale Genauigkeit.

Harvard Business manager plus

Jetzt weiterlesen. Mit dem passenden manager Abo.

Einen Monat für € 0,99 testen. Jederzeit kündbar.

Ihre Vorteile:

  • manager magazin+ und Harvard Business manager+ im Paket
  • Alle Inhalte von m+ und HBm+ auf der Seite manager-magazin.de und in der manager-Nachrichten-App
  • Der Inhalt der gedruckten Magazine inkl. E-Paper (PDF)
Jetzt für € 0,99 testen

Ihre Vorteile:

  • Alle Inhalte von HBm+ auf der Seite manager-magazin.de und in der manager-Nachrichten-App
  • Einmal anmelden und auf allen Geräten nutzen
  • Der Inhalt des gedruckten Magazins inkl. E-Paper (PDF)
Jetzt für € 0,99 testen

Sie sind bereits Digital-Abonnentin oder -Abonnent? Hier anmelden

Weiterlesen mit manager+

Immer einen Einblick voraus

Ihre Vorteile mit manager+

  • manager magazin+

    in der App

  • Harvard Business manager+

    in der App

  • Das manager magazin und den Harvard Business manager lesen

    als E-Paper in der App

  • Alle Artikel in der manager-App

    für nur € 24,99 pro Monat

Sie haben bereits ein Digital-Abonnement?

manager+ wird über Ihren iTunes-Account abgewickelt und mit Kaufbestätigung bezahlt. 24 Stunden vor Ablauf verlängert sich das Abo automatisch um einen Monat zum Preis von zurzeit 24,99€. In den Einstellungen Ihres iTunes-Accounts können Sie das Abo jederzeit kündigen. Um manager+ außerhalb dieser App zu nutzen, müssen Sie das Abo direkt nach dem Kauf mit einem manager-ID-Konto verknüpfen. Mit dem Kauf akzeptieren Sie unsere Allgemeinen Geschäftsbedingungen und Datenschutzerklärung .

Zur Ausgabe
Artikel 11 / 18