Veröffentlicht am

„AI everyhwere“ – im Alltag und am Arbeitsplatz

Nachtrag 12.06.2018: SwissRe Institute hat noch eine weitere Dokumentationsseite zu der Veranstaltung (u.a. mit kurzen Video-Statements der Referenten) und einem „graphic recording e-book“ als Zusammenfassung zu den einzelnen Beiträgen) freigeschaltet


Künstliche Intelligenz (KI) wird uns nicht nur am Arbeitsplatz, sondern darüber hinaus auch im Alltag auf Schritt und Tritt begleiten. Wir müssen die Potenziale einschätzen, aber auch die damit verbundenen Herausforderungen sowie ethischen Fragen behandeln. Wir müssen lernen, mit Algorithmen, Services und Hardware zusammenzuarbeiten. Und PE / L&D sollte an diesem Themenfeld dranbleiben und es nicht einfach anderen überlassen.

Anfang der Woche fand am SwissRe Institute in Rüschlikon eine Tagung zum Thema „A.I. everyhwere – How digital assistants will transform our lives“ statt. Bei Programm und Organisation hatten drei dort beheimatete Nachbarn zusammengespannt: das Gottlieb Duttweiler-Institut, das IBM Forschungszentrum und eben Swiss Re Institute. Das Programm war hochkarätig besetzt. Hier meine Notizen zu den für mich zentralen Punkten.

Im eröffnenden Panel hoben Rainer Baumann (Head Group Digital & Information Services, Swiss Re),
David Bosshard (CEO, Gottlieb Duttweiler Institut) und Costas Bekas (Distinguished Researcher & Manager, IBM Research Zürich) hervor, dass (schwache) KI (im Kern statistische Methoden) nichts grundsätzlich Neues ist. Neu ist der Kontext drum herum: die Rechenleistung, die vernetzten Geräte und die Datenmengen, die verfügbar sind.

Im ersten Vortrag lieferte Nick Jennings (Imperial College London) einige begriffliche Grundlagen und erste Orientierungen:

  • Was ist KI?
    Die Entwicklung von intelligenten Maschinen, die in der von ihnen wahrgenommenen Umgebung vorausschauend handeln / entscheiden. Der Begriff „artificial intelligence“ (AI) wurde schon 1956 geprägt.
  • Warum ist KI aktuell (wieder) ein Trend-Thema?
    Billige Rechenleistung, Milliarden von vernetzten Geräten, riesige Datenmengen, die kein Mensch mehr ohne maschinelle Hilfe verarbeiten kann.
  • Was hat es mit maschinellem Lernen auf sich?
    Hier lernen Algorithmen bzw. werden von ihren Entwicklern trainiert. Zum Beispiel mit speziellen Trainings-Datensets (überwachtes Lernen); durch das Entdecken von Mustern in Datensets (unüberwachtes Lernen); oder durch Rückkopplungsmechanismen bzw. „Belohnungen“ (Verstärkungslernen).
  • Was sind aktuell zentrale Anwendungsfelder von KI?
    Computerspiele; medizinische Diagnostik; Assistenzsysteme (vom Auto bis zur Textübersetzung).
  • Was kann KI (noch) nicht wirklich?
    Das Zusammenspiel von Objektmanipulation und Objektwahrnehmung, kreatives Handeln, soziales und empathisches Handeln.
  • Was sind die Auswirkungen auf die Gesellschaft?
    Veränderungen im Arbeitsmarkt und notwendige Debatten über ethische Fragen (später dazu mehr)
  • Wie sollten wir KI gegenübertreten?
    Wir sollten KI und KI-Applikationen als Partner betrachten. Menschen und Maschinen zusammen leisten mehr als Menschen oder Maschinen – insbesondere, wenn es einen guten Prozess der Zusammenarbeit gibt.
    ((Abbildung))

Im zweiten Vortrag argumentierte Karen Kaushanski (Robot Futures Consulting) dass sich eine „App fatigue“ (ein Überdruss mit den vielen Apps) auf Seiten der Benutzer abzeichne und dass deshalb sprachbasierte Schnittstellen für die Nutzung von KI-basierten Assistenzsystemen an Bedeutung gewinnen. Dies gilt insbesondere für mehrschrittige Aufgaben oder Situationen, in denen man die Hände für andere Aufgaben frei haben muss. Sprachbasierte Benutzerschnittstellen sind nicht nur bei Alexa (Amazon), Google oder Facebook bereits verfügbar, sondern auch im Auto, für das Fernsehgerät, für Hausgeräte, etc.

Vertreter von Amazon und Google unterstützten anschliessend diese Sicht und demonstrierten die Leistungsfähigkeit von sprachbasierten Schnittstellen. So wird beispielsweise bei der Beantwortung von Fragen auch das Thema / der Gegenstand der vorherigen Fragen berücksichtigt. Und sie verwiesen darauf, dass Benutzer ohne Programmierkenntnisse neue „Skills“ oder Funktionen für ihre sprachgesteuerten Geräte erstellen können (hier eine Seite mit Beispielen für Alexa Skills) und ein Video dazu, wie diese erstellt werden können).

Yoram Levanon (SCO, Beyond Verbal Communication) zeigte anschliessend, dass sprachbasierte Schnittstellen und darauf aufbauende KI-Anwendungen Hinweise auf den emotionalen und auch den Gesundheitszustand der sprechenden Person liefern können („vocal biomarkers„). So können beispielsweise anhand der Stimmanalyse Hinweise auf einen möglicherweise bevorstehenden Herzinfarkt gewonnen werden.

Am Nachmittag standen zunächst drei parallele Sessions der Gastgeber auf dem Programm.

In der Session von SwissRe wurde aufgezeigt, wie auf der Grundlage von mobilen Endgeräten und „smart messaging“ mit KI-Unterstützung personalisierte Kundeninteraktionen on-demand möglich werden. Beispielsweise bei der Beratung von Endkunden, die eine für sie passende Versicherungslösung suchen (https://www.anorak.life/).

Im der Session des Gottlieb Duttweiler Instituts standen Assistenzlösungen im Vordergrund, die über Sensoren (Aufenthaltsort, Bewegungen, Pulsfrequenz, Nähe zu anderen Personen, etc.) die emotionale Befindlichkeit von Personen registrieren, analysieren und darstellen können (z.B. https://happimeter.org/). Über eine solche Lösung kann beispielsweise im Unternehmenskontext mehr Transparenz zur Erlebnisqualität verschiedener Arbeitssituationen erreicht werden: sind diese stressinduzierend oder nicht? Sind sie kreativem Arbeiten eher förderlich oder nicht?

In der Session von IBM ging es um die Unterstützung verschiedener Geschäftsprozesse durch kognitive Systeme wie z.B. IBM Watson (https://www.ibm.com/watson/products-services/). Konkret wurde dies für das Supply Chain Management gezeigt: KI-basierte Assistenzsysteme, die Problemsituationen (z.B. mangelnde Verfügbarkeit eines bestimmten Bauteils) prognostizieren und diagnostizieren, dazu benachrichtigen und bei der bestmöglichen Lösung eines solchen Problems unterstützen.

 

 

Danach folgten Vorträge bzw. Berichte, die weiterführende Fragen und Entwicklungsperspektiven verfolgten.

Thomas Metzinger, Philosoph an der Unversität Mainz, entwickelte zwei Szenarien zu ethischen Fragen und Problemstellungen, die sich aus der Verfügbarkeit einer künstlichen Superintelligenz („Artificial General Intelligence, AGI“) ergeben könnten. Claude Clément, CTO Wyss Center, Genf, berichtete zu laufenden Entwicklungsprojekten im Bereich der Neurotechnologie, bei denen u.a. Lösungen für Paraplegiker entwickelt werden. Hierbei werden ins Gehirn implantierte Mikroelektroden mit KI-basierter Datenverarbeitung kombiniert und so eine Steuerung von Gliedmassen oder Assistenzsystemen über Gehirnaktivitäten ermöglicht (https://www.wysscenter.ch/). Und abschliessend berichtete Neil Harbisson, Künstler, Cyborg und „Transspecies“-Aktivist (https://www.cyborgfoundation.com/) über sein Leben mit einer in seinen Kopf implantierten Schwanenhals-Kamera, über die er als vollständig farbenblind geborener Mensch gelernt hat, Farben zu hören:

 

 


Ich habe auf dieser inspirierenden Veranstaltung herumgeschaut und herumgefragt, bin aber nicht auf Vertreter von PE / L&D von Unternehmen bzw. Organisation gestossen. In einem Vortrag kam kurz zur Sprache, wer denn die Mitarbeitenden für die Zusammenarbeit mit den KI-basierten Assistenzsystemen trainiert. Die Antwort war: „Das macht unsere IT“ (weil dort die Kompetenz zu KI, Assistenzsystemen und Applikationen lokalisiert ist…) Ich denke, PE- und L&D-Profis müssen dieses Kompetenz- und Entwicklungsfeld stärker in den Blick nehmen und sollten dies nicht einfach anderen überlassen.


Die einzelnen Präsentationen zu den Vorträgen der Veranstaltung sind über diese Seite verfügbar:
http://institute.swissre.com/events/AI_everywhere_How_digital_assistants_will_transform_our_lives.html#tab_2

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.