Neue Modelle Sinn menschlichen Vertrauen in smart Maschinen
Neue „Klassifikation von Modellen“ spüren Sie, wie gut die Menschen Vertrauen intelligenten Maschinen, die Sie arbeiten mit, einen Schritt in Richtung Verbesserung der Qualität von Interaktionen und Teamarbeit.
Das langfristige Ziel für den gesamten Bereich der Forschung ist der Entwurf intelligenter Maschinen, die Ihr Verhalten ändern, zu verbessern, Menschen zu Vertrauen. Die neuen Modelle wurden entwickelt, die in der Forschung der Leitung von assistant professor Neera Jain und associate professor Tahira Reid, Purdue University School of Mechanical Engineering.
„Intelligente Maschinen, und mehr breit, intelligente Systeme werden immer häufiger in den Alltag der Menschen“, sagte Jain. „Als Menschen sind zunehmend erforderlich, um die Interaktion mit intelligenten Systemen, Vertrauen wird zu einem wichtigen Faktor für die synergistische Interaktionen.“
Zum Beispiel, Piloten und Arbeitern routinemäßig die Interaktion mit automatisierten Systemen. Menschen werden manchmal überschreiben diese intelligenten Maschinen unnötig, wenn Sie denken, das system ist ins stocken geraten.
„Es ist gut etabliert, dass das menschliche Vertrauen ist von zentraler Bedeutung, um erfolgreiche Interaktionen zwischen Menschen und Maschinen,“ Reid sagte.
Die Forscher entwickelten zwei Arten von „Klassifikatoren-basierte empirische Vertrauen sensor-Modelle,“ ein Schritt in Richtung Verbesserung des Vertrauens zwischen Menschen und intelligenten Maschinen.
Ein YouTube-video ist abrufbar unter https://www.youtube.com/watch?v=Mucl6pAgEQg.
Die Arbeit an der Purdue Riesigen Sprünge feier, Bestätigung der Universität, der Globale Fortschritt in der KI, algorithmen und Automatisierung als Teil der Purdue 150-jähriges bestehen. Dies ist eines der vier Themen der ganzjährigen feier ‚ s Ideas Festival, entworfen, um zu präsentieren, Purdue-Universität als geistiges Zentrum die Reale Probleme zu lösen.
Die Modelle verwenden zwei Techniken, die die Daten liefern, um zu Messen, Vertrauen: Elektroenzephalographie und galvanische Haut Antwort. Die ersten Aufzeichnungen gehirnwellenmuster, und die zweite überwacht die Veränderungen der elektrischen Eigenschaften der Haut, bietet psychophysiologische „feature-sets“ korreliert mit Vertrauen.
Vierzig-fünf Probanden, zog wireless-EEG-headsets und trug ein Gerät auf der einen Seite zu Messen ist galvanische Haut Antwort.
Eines der neuen Modelle, ein „Allgemeines Vertrauen sensor-Modell“ verwendet die gleiche Reihe von psychophysiologischen Funktionen für alle 45 Teilnehmer. Das andere Modell wird individuell für jedes menschliche Subjekt, was zu einer verbesserten mittlere Genauigkeit, aber auf Kosten einer Erhöhung in der Ausbildung Zeit. Die beiden Modelle hatten eine mittlere Genauigkeit von 71.22 Prozent, und 78.55 Prozent, beziehungsweise.
Es ist das erste mal, EEG-Messungen wurden verwendet, um abzuschätzen, Vertrauen in Echtzeit, ohne Verzögerung.
„Wir sind mit diesen Daten in einer ganz neuen Weise“, sagte Jain. „Wir betrachten es in der Art ein kontinuierlicher Datenstrom anders als bei Gehirn-Wellen, die nach einem bestimmten Auslöser oder ein Ereignis.“
Ergebnisse sind detailliert in einer Forschungsarbeit erscheinen in einem Sonderheft der Zeitschrift der Association for Computing Machinery Transactions on Interactive Intelligent Systems. Die journal-Sonderausgabe mit dem Titel „Vertrauen und Einfluss in der Intelligenten Mensch-Maschine-Interaktion.“ Das Papier wurde verfasst von mechanical engineering graduate student Kumar Akash; der ehemalige student der Wan-Lin Hu, die ist jetzt ein Postdoc-research associate an der Stanford University; Jain und Reid.
„Wir sind daran interessiert, feedback-control-Prinzipien design-Maschinen, die in der Lage sind, reagieren auf die Veränderungen in der menschlichen Vertrauen Ebene in Echtzeit zu erstellen und zu verwalten Vertrauen in der Mensch-Maschine-Beziehung,“ Jain sagt. „Um dies zu tun, benötigen wir einen sensor für die Abschätzung der human trust-level, wieder in Echtzeit. Die Ergebnisse in diesem Papier zeigen, dass psychophysiologische Messungen verwendet werden könnte, um dies zu tun.“
Das Problem der menschlichen Vertrauen in Maschinen ist wichtig für den effizienten Betrieb von „human-agent-kollektiven.“
„Die Zukunft wird gebaut werden, um die Mensch-agent-kollektive, erfordern eine effiziente und erfolgreiche Koordinierung und Zusammenarbeit zwischen Menschen und Maschinen“, sagte Jain. „Sagen Sie, es ist ein Schwarm von Roboter unterstützen Rettungskräfte während einer Naturkatastrophe. In unserer Arbeit beschäftigen wir uns mit nur ein Mensch und eine Maschine, aber letztlich hoffen wir, eine Skalierung auf bis zu teams von Menschen und Maschinen.“
Algorithmen wurden eingeführt, um die Automatisierung verschiedener Prozesse.
„Aber wir haben immer noch Menschen gibt, die das überwachen, was Los ist,“ sagte Jain. „Es ist in der Regel eine override-Funktion, wo, wenn Sie denken, dass etwas nicht stimmt, können Sie wieder die Kontrolle.“
Manchmal ist diese Aktion nicht gerechtfertigt.
„Haben Sie Situationen, in denen Menschen nicht verstehen können, was passiert ist, damit Sie nicht Vertrauen das system, das richtige zu tun,“ Reid sagte. „Also nehmen Sie wieder die Kontrolle, auch wenn Sie wirklich sollte nicht sein.“
In einigen Fällen, zum Beispiel bei Piloten überschreiben der autopilot, taking back control, kann tatsächlich behindern den sicheren Betrieb des Flugzeugs, Unfälle verursachen.
„Ein Erster Schritt in Richtung Gestaltung von intelligenten Maschinen, die in der Lage sind, Aufbau und Aufrechterhaltung von Vertrauen bei den Menschen ist das design des Sensors, wird die Maschinen zu schätzen menschliche Vertrauen Ebene in Echtzeit“, sagte Jain.
Zur Validierung Ihrer Methode, 581, online-Teilnehmer wurden gebeten, betreiben einer Fahr-simulation, bei der sich ein computer identifiziert, Hindernisse auf der Straße. In einigen Szenarien, die computer korrekt identifiziert Hindernisse, die zu 100 Prozent der Zeit, während in anderen Szenarien müssen die computer, die falsch identifiziert werden, die Hindernisse zu 50 Prozent der Zeit.
„Also, in einigen Fällen würde es Ihnen sagen, es ist ein Hindernis, so dass Sie auf die Bremsen und einen Unfall zu vermeiden, aber in anderen Fällen wäre es falsch, die Ihnen ein Hindernis vorhanden ist, wenn keiner da war, so schlagen Sie die Pausen für keinen Grund,“ Reid sagte.
Der Test erlaubt den Forschern zu identifizieren, psychophysiologische Merkmale, die in Beziehung zu menschlichen Vertrauen in intelligente Systeme und bauen ein Vertrauen sensor Modell entsprechend. „Wir vermuten, dass der trust-level hoch zuverlässige Studien und niedrige fehlerhafte Studien, und wir validiert diese Hypothese mit Antworten gesammelt von 581 online-Teilnehmer“, sagte Sie.
Die Ergebnisse, die bestätigt, dass die Methode effektiv induzierte Vertrauen und Misstrauen in die intelligente Maschine.
„Um abzuschätzen, Vertrauen in Echtzeit, benötigen wir die Fähigkeit, kontinuierlich zu extrahieren und zu bewerten, Schlüssel, psychophysiologische Messungen,“ Jain sagt. „Diese Arbeit stellt die erste Nutzung von Echtzeit-psychophysiologische Messungen für die Entwicklung des Menschen Vertrauen-sensor.“
Die EEG-headset-Datensätze Signale über neun Kanäle, jeder Kanal aufnehmen den verschiedenen teilen des Gehirns.
„Jeder Gehirnwellen sind unterschiedlich, so müssen Sie sicherstellen, dass Sie erstellen Sie eine benutzerdefinierte klassifizierungsfunktion, die funktioniert für alle Menschen.“
Für autonome Systeme, Mensch-Vertrauen können in drei Kategorien eingeteilt werden: dispositionelle, situative und gelernt.
Dispositionelle Vertrauen bezieht sich auf die Komponente des Vertrauens, das abhängig ist von der Demografie wie Geschlecht und Kultur, die potenziellen Verzerrungen.
„Wir wissen, wahrscheinlich gibt es nuancierte Unterschiede, die berücksichtigt werden sollten,“ Reid sagte. „Frauen Vertrauen anders als Männer, zum Beispiel, und Vertrauen kann auch beeinflusst werden durch Unterschiede in Alter und Nationalität.“
Situative Vertrauen kann beeinträchtigt werden, durch eine Aufgabe, die in Höhe der Gefahr oder Schwierigkeit, während gelernt wird, basierend auf den menschlichen Vergangenheit Erfahrung mit autonomen Systemen.
Die models, die Sie entwickelt genannt werden klassifikationsalgorithmen.
„Die Idee ist, in der Lage sein zu verwenden, diese Modelle zu klassifizieren, wenn jemand ist wahrscheinlich das Gefühl Vertrauen versus wahrscheinlich das Gefühl misstraut“, sagte Sie.
Jain und Reid haben auch untersucht, dispositionelle Vertrauen zu berücksichtigen geschlechtsspezifische und kulturelle Unterschiede, als auch als dynamische Modelle in der Lage, vorherzusagen, wie das Vertrauen wird sich in Zukunft ändern, basierend auf den Daten.