Cognitive Computing. Nachgefragt.

    „Für Cognitive Computing sind alle Anwendungsbereiche geeignet, bei denen wir Menschen das Ergebnis noch selber beurteilen können.“

     

    Interview mit

    Dr. Norbert Pohlmann, Professor für Verteilte Systeme und Informationssicherheit im Fachbereich Informatik und Leiter des Instituts für Internet-Sicherheit an der Westfälischen Hochschule

    www.internet-sicherheit.de /  https://norbert-pohlmann.com

     

    Über Cognitive Computing, Maschinelles Lernen (ML) oder Künstliche Intelligenz (KI) wird momentan in fast allen Medien viel veröffentlicht. Nichtsdestotrotz  herrscht keine Einigkeit darüber, wie weit die Entwicklung hier bereits fortgeschritten ist und wo die Einsatzfelder liegen. Auch die gesellschaftlichen Konsequenzen werden kontrovers beurteilt. Aus diesem Grund sprach Ulla Coester für DIGITUS mit Professor Norbert Pohlmann, der zum einen die Bedeutung dieser Technologien erläutern kann, und zum anderen die Bedingungen,  unter denen diese Einzug in Wirtschaft und Gesellschaft erhalten sollten.

    Herr Prof. Pohlmann, Cognitive Computing, KI und ML, diese drei Begriffe sind stehen aktuell sehr im Fokus der Berichterstattung. Können Sie uns daher zu Beginn ihre Bedeutung genauer erläutern und auch eine kurze Abgrenzung geben?

    Gerne. Unter dem Begriff Cognitive Computing lassen sich (Computer-) Systeme zusammenfassen, die in Echtzeit mit Menschen kommunizieren können und darüber in der Lage sind, Fragen zu beantworten oder eben auch Anleitungen zu bieten. Auf den Punkt gebracht beschreibt Cognitive Computing Anwendungen, die mittels vieler Daten sowie dem Einsatz der Technologien aus dem Maschinellen Lernen (ML) und Künstlicher Intelligenz (KI) Ergebnisse produzieren.

    Die beiden genannten Technologien lassen sich folgendermaßen beschreiben: KI setzt intelligentes Verhalten in Algorithmen unter Zuhilfenahme von Informationen in Daten um, mit der Zielsetzung, automatisiert menschliche Entscheidungsstrukturen nachzubilden. ML ist ein Begriff für die künstliche Generierung von Wissen aus den Informationen in Daten. In Lernphasen lernen entsprechende ML-Algorithmen aus vielen diversen Beispielen simple Muster, Strukturen, komplexe Merkmale und Gesetzmäßigkeiten zu erkennen. Die daraus entstehenden Regeln können auf neue Daten und ähnliche Situationen angewendet werden.

    Könnten Sie auch noch kurz den aktuellen Stand der Forschung wiedergeben und lassen sich heute Prognosen für die Zukunft daraus ableiten? Welche Voraussetzungen müssen dafür erfüllt sein?

    Watson von IBM ist eines der bekanntesten Beispiele für Cognitive Computing. Aufgrund der zunehmend großen Menge an Daten hat dieses System bereits ein sehr hohes Qualitätsniveau erreicht und ist in der Lage, Fragen nicht nur selbstständig, sondern auch sinnvoll zu beantworten. Das liegt darin begründet, dass allgemein aus der Konstellation der Menge an verfügbaren Daten, der enormen Leistungsfähigkeit von IT-Systemen sowie den Innovationen im Bereich der Algorithmen, wie etwa Deep Learning, zunehmend bessere Ergebnisse erzielt werden können. Somit sind die Rechnerleistung der IT-Systeme sowie der Zugang zu Daten, aus denen sich Wissen generieren lässt, essenzielle Voraussetzungen für die weitere Entwicklung.

    Doch bis jetzt können längst noch nicht alle Probleme gleich gut damit gelöst werden, und es ist meines Erachtens noch ein langer Weg bis zu wirklich optimal und selbstständig einzusetzenden Systemen. Das liegt unter anderem daran, dass in bestimmten Bereichen noch keine genügend große Datenbasis vorhanden ist, aus der sich das notwendige Wissen generieren ließe.

    Wenn die Entwicklung in dieser Konsequenz fortschreitet, wie lässt sich dann – aufgrund der Komplexität – zukünftig noch evaluieren, dass Handlungsempfehlungen richtig sind?

    Da Cognitive Computing-Anwendungen enorme Vorteile bringen – in erster Linie natürlich, um Handlungsempfehlungen zu generieren – und von daher eine zunehmend wichtige Rolle spielen, sind Transparenz und Vertrauenswürdigkeit hier die wichtigsten Erfolgsfaktoren. Um diesen Anforderungen gerecht zu werden, wäre es sinnvoll, prinzipiell von vertrauenswürdigen Instanzen eine Evaluierung durchführen zu lassen. Beispielsweise um Nutzern die Gewissheit zu geben, dass die genutzte Datenbasis präzise ausgewählt wurde. Denn deren Qualität ist enorm wichtig. Eine Entscheidung, die ich auf einer Datenbasis treffe, die nicht alle hierfür relevanten Daten beinhaltet, kann niemals korrekt sein. Eine fatale Konsequenz daraus ist auch, dass sich fehlerhafte Daten zur gezielten Manipulation einsetzen lassen, etwa mit dem Ziel der Beeinflussung von Handlungsentscheidungen, zum Beispiel bei Wahlen.

    Gibt es weitere Aspekte, die Sie für wesentlich halten?

    Ja, natürlich. Zusätzlich zur nachgewiesenen Datenqualität muss die Sicherheit der Cognitive Computing-Anwendungen gewährleistet sein. Das bedeutet, dass die Hersteller gleichsam verpflichtet sind, dafür Sorge zu tragen, dass ein System gegen jedwede kriminelle Manipulation geschützt ist. Denn insbesondere die Nutzung dieser Anwendungen basiert auf Vertrauen. So müssen sich Anwender unbedingt darauf verlassen können, dass es keine Möglichkeit gibt, die Voice-Schnittstelle – die ich im Übrigen als ein sehr gutes Interface für diese Mensch-Maschine-Kommunikation ansehe – zu missbrauchen. Dazu gehört neben dem Schutz vor Angriffen auch, dass das System exakt nur die Anweisungen eines (autorisierten) Anwenders ausführt.

    Es hat sich bereits gezeigt, dass die Angst der Nutzer vor Missbrauch im Bereich KI groß ist.  Bestehen, neben den bereits erläuterten, noch weitere Möglichkeiten der Manipulation?

    Im Kontext der Korrektheit von Handlungsempfehlungen beziehungsweise der Möglichkeit von Manipulationen mit kriminellen Absichten ergeben sich jedoch auch aufgrund von Drifting-Effekten spannende Herausforderungen für lebenslanges ML – beispielsweise die vertrauenswürdige Integration von Realwelt-Daten in bestehende Modelle. Denn diese Daten werden in beliebigen Intervallen, von täglich bis jährlich, zum Training eines Modells genutzt. Hierbei kann es jedoch vorkommen, dass eine Änderung der Klassifikation für die einströmenden Echtzeitdaten nicht schnell genug adaptierbar ist, einfach weil die Berechnung dafür viel Zeit benötigt, und es so einem Angreifer über einen längeren Zeitraum möglich wird, Entscheidungen zu manipulieren. Des Weiteren müssen im Sinne der Aussagefähigkeit auch Grenzbereiche betrachtet werden, beispielsweise wie reagiert ein System, falls über einen längeren Zeitraum Daten ausfallen oder plötzlich ein deutlicher Anstieg an Inputdaten zu verzeichnen ist.

    Insgesamt, und darauf möchte ich an dieser Stelle noch einmal mit Nachdruck hinweisen, sind die Möglichkeiten zur Beeinflussung der Ergebnisse eines Algorithmus vielfältig. Das Brisante dabei ist, dass sie bereits heute enorme Auswirkungen auf die Selbstbestimmung eines jeden Individuums haben.

    Das ist eine gute Überleitung zur Frage nach ethischen und rechtlichen Fragestellungen – wo sehen Sie hier Probleme?

    Als einen ganz wichtigen Aspekt sehe ich natürlich die Gewährleistung der Diskriminierungsfreiheit. Denn für den Fall, dass die Auswahl der Daten eine Diskriminierung nicht ausschließt oder schlimmer noch, bewusst in Kauf nimmt, kann dies zum Beispiel für bestimmte Bevölkerungsgruppen gravierende Folgen haben. Aber genau an dieser Stelle kommt ein Problem zum Vorschein, das nicht der Technologie zugerechnet werden kann: eine Definition zu finden, was nicht-diskriminierend für eine Gesellschaft bedeutet.

    Daneben ist die Frage nach der Verantwortung evident, zum Beispiel im Bereich der Diagnostik. Sollte ein Arzt, gegen besseres Wissen und Gewissen, auf die Urteilsfindung der KI vertrauen müssen? Wie kann er diese Fragestellung im Einzelfall für sich ethisch richtig beantworten? Und wer wird dann zur Rechenschaft gezogen, wenn die Entscheidung falsch war – der Hersteller der KI oder der Arzt? Neben dem moralischen Dilemma ist auch das Haftungsthema bei fehlerhaften Antworten oder Ratschlägen meines Erachtens insgesamt sehr schwierig zu fassen.

    Basierend auf den von Ihnen benannten Problemen – welche Anwendungsbereiche sind denn nun geeignet und welche nicht?

    Die Antwort ist relativ einfach. Alle Anwendungsbereiche, bei denen wir Menschen das Ergebnis noch selber beurteilen können sind geeignet. Cognitive Computing ist unter dem Aspekt nützlich, dass Ergebnisse schneller und gründlicher berechnet werden können und unter dem Aspekt nutzbar, dass die Risiken, aufgrund der Möglichkeit der eigenen Einschätzung, minimal ausfallen.

    Aber immer dann, wenn wir nicht mehr in der Lage sind das Ergebnis selber evaluieren zu können und die daraus zu erwartenden Konsequenzen zu groß sind, sollten wir auf Cognitive Computing verzichten.

    Sie stellen Cognitive Computing allgemein sehr positiv dar – wie können wir sicher sein, dass keine negativen Konsequenzen daraus resultieren?

    Wir müssen berücksichtigen, dass individuelles Wissen, persönliche Erfahrungen sowie die Komplexität des Menschen intelligenten Algorithmen in vielen Aspekten überlegen sind, von daher ist es unabdingbar diese Kompetenzen weiter zu nutzen und auch kontinuierlich stringent auszubauen. Denn ohne diese Voraussetzungen verlieren wir die Fähigkeit, über das eigene Leben frei entscheiden zu können.

    Generell muss jedem bei der Nutzung von Cognitive Computing klar sein, dass hier nur Handlungsempfehlungen geboten werden und das eigene Wissen sowie die persönlichen Erfahrungen sehr wichtig sind, um am Ende eine individuell gute Entscheidung treffen zu können. Andererseits können intelligente Algorithmen aus vergangenen und aktuellen Daten viel besser, aber vor allem auch bedeutend schneller und gründlicher wertvolle Auswertungen vornehmen. Das bedeutet im Endeffekt: Grundsätzlich ergibt nur das Zusammenspiel von individuellem Wissen beziehungsweise Erfahrung und intelligenten Algorithmen der Cognitive Computing einen Mehrwert.

    Welche Folgerungen und Wünsche leiten Sie daraus ab?

    Mein Appell lautet: Der nächste wichtige Aspekt in der digitalen Revolution muss sein, dass der freie Wille, über das eigene Leben autonom entscheiden zu können, geachtet wird. Aber natürlich ist hier auch der einzelne Nutzer gefordert. Jeder sollte bereit sein, sich mit den Hintergründen und Geschäftsmodellen von Cognitive Computing auseinanderzusetzen, um diese zu verstehen.

    Hierfür bedarf es unter anderem, die eigenen Fähigkeiten bezüglich Wissen und Erfahrungen in den wichtigen Bereichen aufrechtzuerhalten. Denn dies hilft beispielsweise bei einer kritischen Einschätzung hinsichtlich der Ziele, die ein Anbieter verfolgt – sprich auf welcher Grundlage der Algorithmus zur Berechnung des Handlungsvorschlages durchgeführt wird. Und bei der Beantwortung der Frage, ob dieser optimal für die Nutzer oder für den Anbieter ist.

    Diese kritische Haltung geht heute schon vielen verloren, weil sie neue Features bezüglich Cognitive Computing – und damit verbunden mehr Bequemlichkeit – höher gewichten als ihr Recht auf informationelle Selbstbestimmung.

    Würden Sie Ihre Erkenntnisse zum Ende unseres Gesprächs noch in ein kurzes Fazit fassen?

    Cognitive Computing wird unserer Leben einfacher machen. Allerding nur unter der Prämisse, dass die Systeme vertrauenswürdig sind und ihre definierten Aufgaben richtig erfüllen. Cognitive Computing ist aber auch ein sehr großer Markt – die Prognosen von IDC belaufen sich auf über 4,3 Milliarden Dollar bis 2020. Daher ist es kaum verwunderlich, dass viele Experten den Stand der Entwicklung gerne deutlich fortgeschrittener darstellen.

    Trotzdem müssen wir uns als Gesellschaft mindestens zwei Fragen zeitnah ernsthaft stellen: Besteht das Risiko, dass wenn Maschinen zukünftig intelligente Antworten geben können, der (einzelne) Mensch überflüssig wird? Bisher haben wir immer Daten und Wissen geschützt – müssen wir demnächst unsere Intelligenz schützen?

    Herr Professor Pohlmann, wir danken Ihnen für diese klaren und aufschlussreichen Worte.

     

    Das Interview führte Ulla Coester für DIGITUS

    Ulla Coester verfügt über langjährige – teils internationale – Berufserfahrung, in der Selbstständigkeit sowie in leitenden Funktionen bei Verlagen und Unternehmen. Neben ihrer journalistischen Tätigkeit arbeitet sie seit 2006 als Coach/Beraterin für Unternehmen im Bereich Business-to-Business: Ihre Beratungstätigkeit hier umfasst unter anderem Strategieentwicklung sowie Projekt-Moderation, seit fünf Jahren zunehmend mit dem Fokus auf Industrie 4.0 und Digitalisierung im Kontext von IT-Sicherheit und Ethik. Daneben ist sie als Organisatorin/Moderatorin von Experten-Gesprächen, Podiumsdiskussionen wie „Die Macht der Daten – Nutzen oder Schaden und für wen?“ (gamescom 2016) und Veranstaltungen wie dem Kolloquium „Vernetzung 4.0 für den Mittelstand“ (CeBIT 2016) oder „Digitale Ethik 4.0 – Konferenz zu Zukunftsfragen“, Startplatz Köln (www.startplatz.de/event/digitale-ethik-4-0) tätig.

    Als Mitbegründerin der Plattform www.xethix.com beschäftigt sie sich seit sechs Jahren mit digitalen Trends sowie deren Auswirkungen auf Unternehmen und Gesellschaft. Seit 2016 ist Ulla Coester als Dozentin an der Hochschule Fresenius, Köln tätig. Seit 2018 ist sie Partnerin bei Wegesrand. innovation unternehmen.

    twitter.com/UCoester