Umhegt oder abhÌngig?
AuÞerdem erschienen: A. Picot, S. Doeblin (Hrsg.) eCompanies ± grçnden, wachsen, ernten ISBN 3-540-67726-7. 2001. IX, 160 S. A. Picot, H.-P. Quadt (Hrsg.) Verwaltung ans Netz! ISBN 3-540-41740-0. 2001. IX, 201 S. J. Eberspåcher, U. Hertz (Hrsg.) Leben in der e-Society ISBN 3-540-42724-4. 2002. IX, 235 S. J. Eberspåcher (Hrsg.) Die Zukunft der Printmedien ISBN 3-540-43356-2. 2002. VIII, 246 S. A. Picot (Hrsg.) Das Telekommunikationsgesetz auf dem Prçfstand ISBN 3-540-44140-9. 2003. VIII, 161 S. M. Dowling, J. Eberspåcher, A. Picot (Hrsg.) eLearning in Unternehmen ISBN 3-540-00543-9. 2003. VIII, 154 S. J. Eberspåcher, A. Ziemer (Hrsg.) Video Digital ± Quo vadis Fernsehen? ISBN 3-540-40238-1. 2003. VIII, 140 S. A. Picot (Hrsg.) Digital Rights Management ISBN 3-540-40598-4. 2003. V, 153 S. J. Eberspåcher, H.-P. Quadt (Hrsg.) Breitband-Perspektiven ISBN 3-540-22104. 2004. VIII, 186 S. A. Picot, H. Thielmann (Hrsg.) Distribution und Schutz digitaler Medien durch Digital Rights Management ISBN 3-540-23844-1. 2005. X, 153 S. J. Eberspåcher, H. Tillmann (Hrsg.) Broadcast-Mediendienste im Spannungsfeld zwischen Mårkten und Politik ISBN 3-540-24345-3. 2005. VIII, 191 S. A. Picot, H.-P. Quadt (Hrsg.) Telekommunikation und die globale wirtschaftliche Entwicklung ISBN 3-540-25778-0. 2005. VI, 110 S.
Jærg Eberspåcher ´ Wolf von Reden Herausgeber
Umhegt oder abhÌngig? Der Mensch in einer digitalen Umgebung Mit 145 Abbildungen
12
Professor Dr. Jærg Eberspåcher Technische Universitåt Mçnchen Lehrstuhl fçr Kommunikationsnetze Arcisstraûe 21 80290 Mçnchen
[email protected] Dr. Wolf von Reden Fraunhofer Institut fçr Nachrichtentechnik Heinrich-Hertz-Institut HHI Einsteinufer 37 10587 Berlin
[email protected] ISBN-10 ISBN-13
3-540-28143-6 Springer Berlin Heidelberg New York 978-3-540-28143-6 Springer Berlin Heidelberg New York
Bibliografische Information Der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet çber abrufbar. Dieses Werk ist urheberrechtlich geschçtzt. Die dadurch begrçndeten Rechte, insbesondere die der Ûbersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfåltigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfåltigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zulåssig. Sie ist grundsåtzlich vergçtungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. Springer ist ein Unternehmen von Springer Science+Business Media springer.de ° Springer-Verlag Berlin Heidelberg 2006 Printed in Germany Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wåren und daher von jedermann benutzt werden dçrften. Umschlaggestaltung: Erich Kirchner, Heidelberg SPIN 11528616
42/3153-5 4 3 2 1 0 ± Gedruckt auf såurefreiem Papier
Vorwort Eine Vision geht um, eine Vision, deren Verwirklichung bereits heute in ersten Schritten beginnt und die die Welt verändern wird – und dies nicht nur technisch. Bei dieser Vision zielt der Fortschritt auf die allgegenwärtige elektronische Assistenz („Ambient Intelligence“). Eine solche „digitale Umgebung“ ist in der Lage, sich stets und überall auf den Menschen einzustellen, auf ihn zu reagieren und ihn zu unterstützen. Und dies alles mit einer nahezu unsichtbaren, im Hintergrund verschwindenden Technik. Durch Ambient Intelligence soll der Mensch in all seinen täglichen Bewegungen und Besorgungen unterstützt werden. Dies reicht von der einfachen Logistik bei Einkäufen und Reisen, über Gesundheit überwachende Sensoren, auch unterwegs, bis zu einer mobilen, multimedialen Präsenz aller Wissensangebote, z.B. bei der fachlichen Arbeit oder an touristischen Orten. Dazu werden Gegenstände des täglichen Lebens mit Informations- und Kommunikationstechnik „bestückt“. Die nahtlose Vernetzung und Integration aller Geräte, die für einige Bereiche des Lebens jetzt schon Realität ist bzw. sich für viele weitere abzeichnet, wird eine umfassende Durchdringung erfahren. Diese „schöne neue Welt“ stellt umfassende Herausforderungen an Mensch und Maschine: selbstkonfigurierbare Netzwerke, miniaturisierte, kaum Leistung verbrauchende „smarte“ Sensoren, mit Elektronik durchsetzte Kleidung, Haushaltsroboter. Eine wesentliche Rolle wird die Verbesserung und Neukonzeption der Mensch-Maschine-Kommunikation spielen. Wenn diese künftige „e-Umgebung“ nicht zum Alptraum werden soll, muss jedermann damit umgehen können. Intelligente, multimodale (d.h. mehrere Sinne nutzende) Benutzungsoberflächen und Bedienkonzepte können hier helfen, die „ubiquitären Computer“ zu wirklichen Helfern werden zu lassen. Dazu müssen Erkenntnisse über das menschliche Verhalten in den Entwurf der Systeme einfließen einschließlich Fragen von Sicherheit und Schutz der Privatsphäre. Die Vorteile der „elektronischen Zukunft“ können letztlich nur dann genutzt werden, wenn die künftigen Nutzer, die Menschen, darin praktischen Nutzen erkennen können. Der MÜNCHNER KREIS hat sich in einer Fachkonferenz mit den technischen Voraussetzungen und Konsequenzen befasst. Es wurden auch aktuelle Entwicklungen diskutiert wie die drahtlose Identifizierungs-Technik RFID (Radio Frequency Identification), die derzeit in Logistik und Handel auf breiter Front eingeführt wird. Das Programm der Konferenz wurde im Forschungsausschuss des MÜNCHNER KREISES erarbeitet. Das vorliegende Buch enthält die Vorträge und die durchgesehenen Mitschriften der Podiumsdiskussionen. Allen Referenten und Diskussionsleitern sowie allen, die zum Gelingen der Tagung und zur Erstellung des Buches beigetragen haben, gilt unser herzlicher Dank! Jörg Eberspächer
Wolf von Reden
Inhalt
VII
Inhalt 1
Begrüßung und Einführung
1
Prof. Dr. Arnold Picot, Universität München
2
Die bunte Welt der „Ambient Intelligence“
3
Prof. Dr. José Encarnação, Fraunhofer Institut für Graphische Datenverarbeitung, Darmstadt
3
Ubiquitous Computing – Machbarkeit und Grenzen
35
Claudia Linnhoff-Popien, Universität München
4
Looking ahead: Technology Visions
49
Dr. Krishna Nathan, IBM Research GmbH, Rüschlikon
Radio Frequency Identification (RFID) 5
RFID als erster Schritt der Integration von realer und virtueller Welt
73
Prof. Dr. Elgar Fleisch, Universität St.Gallen
6
RFID in der Logistik
79
Dr. Gerrit Wiegmink, Deutsche Post AG, Bonn
7
RFID in der Kritik
93
Rena Tangens, FoeBuD e.V. & Big Brother Awards Deutschland
8
Diskussion Moderation: Stefan Holtel, Vodafone Pilotentwicklung GmbH, München
109
VIII
Inhalt
Neue Herausforderungen an Mensch und Maschine 9
Begeisternd und mühelos zu bedienen: Mobile Endgeräte für den Menschen
115
Jens-Thomas Pietralla, Chief Marketing Officer, Siemens Communications, Siemens AG, München
10 Haushalts- und Spiele-Roboter als Begleiter und Helfer
133
Prof. Dr. Thomas Christaller, Fraunhofer-Institut für Autonome Intelligente Systeme AIS, St. Augustin
11 Diskussion
153
Moderation: Prof. Eberspächer, TU München
Gelingt der Brückenschlag zwischen Technik und Mensch? 12 Ambient Intelligence – the European Way for a User Friendly Information Society
159
Dr. Yves Punie, Institute for Prospective Technological Studies, Sevilla
13 Mobile Usability
171
Dr. Lothar Mühlbach, Fraunhofer-Institut für Nachrichtentechnik Heinrich-Hertz-Institut (HHI), Berlin
14 Dreamteam Mensch-Computer – Wer bestimmt die Spielregeln?
179
Siegfried Frey, Universität Duisburg-Essen
15 Der Avatar: „Ein Wesen, eine Spielfigur, ein Medium, oder ein UI-Element?“ Prof. Ulrike Spierling, Fachhochschule Erfurt
207
Inhalt
16 Diskussion
IX
221
Moderation: Dr. Wolf v. Reden, Fraunhofer Institut für Nachrichtentechnik, Heinrich-Hertz-Institut, HHI, Berlin 213
Anhang Liste der Referenten, Moderatoren und Panelteilnehmer
229
1 Begrüßung und Einführung Prof. Dr. Arnold Picot Universität München
Meine Damen und Herren, bei dieser Konferenz geht es um die Allgegenwärtigkeit von Informations- und Kommunikationskapazitäten für den individuellen Gebrauch, für Menschen, aber auch für Sachen. Das wird heute bereits vielfältig spürbar. Wer führt heute nicht ein Mobiltelefon, einen Laptop, ein Notebook oder einen PDA-Computer mit sich? In Autos und Haushaltsgeräten, in anderen langlebigen Gebrauchsgütern stellen Chips, Elektronik und Vernetzung einen immer größeren, z.T. sogar überwiegenden Teil der Wertschöpfung dar. Ad hoc Netze, also spontan entstehende Vernetzungen zwischen Menschen und Sachen, Netzzugänge, deren man sich an beliebigen Orten mit unterschiedlichsten Zugangstechnologien und Endgeräten flexibel bedienen kann, stehen an vielen Orten zur Verfügung. In einer steigenden Zahl von Innenstädten, oder auch auf Universitätsgeländen, sind preisgünstige oder sogar preislose Zugänge über etwa Wireless LANs bereits eine Selbstverständlichkeit. Ich verbringe zurzeit ein Gastjahr in den Vereinigten Staaten. Von meiner kleinen Wohnung in Washington DC aus stehen mir nicht weniger als acht W-LAN-Zugänge zur Verfügung, die ich nicht selbst installiert habe und deren ich mich spontan bedienen und mit entsprechenden Sicherheitstechnologien auch sinnvoll nutzen kann. Spezialisierte Softwaresysteme sind verfügbar im Sinne von kleinen Automaten, kleinen Agenten oder Robotern, die den Menschen in vielerlei Hinsicht von routinehaften Tätigkeiten und Abwicklungen entlasten und unterstützen, z.B. auch um uns aus dem unendlichen Meer der Daten und Informationen des Internet bestimmte Selektionen zur Verfügung zu stellen oder auch in unserem eigenen persönlichen Informationschaos auf unseren Festplatten bestimmte Dateien zu suchen. Und zunehmend sehen wir erste Beispiele für die Ablösung der uns allen sehr bekannten Barcodes, der Strichcodes auf den Waren, Verpackungen und Gütern unserer Wirtschaftswelt: die Ablösung dieser Kennzeichnungen durch kaum sichtbare Chips oder Tags mit eigener Sendemöglichkeit, die sog. RFIDs, Radio Frequency Identification Tags oder Chips, mit deren Hilfe Güter und Warenströme besser gesteuert, transparent gemacht werden und nachverfolgt werden können. Diese wenigen Beispiele sind natürlich sehr frühe Vorboten einer Entwicklung, die unaufhaltsam voranschreitet. Die Digitalisierung, die Miniaturisierung vor allen
2
Arnold Picot
Dingen, und die Leistungssteigerung der diversen Komponenten der Informationsund Kommunikationstechnologien halten an und entwickeln sich in ähnlicher Geschwindigkeit wie wir es in den letzten zehn bis 20 Jahre beobachten konnten, weiter, mindestens noch zehn bis 15 Jahre. Das führt dazu, dass diese informationsund kommunikationstechnologischen Funktionskomponenten in mancherlei Anwendungszusammenhängen nahezu unsichtbar sowie immer leistungsfähiger werden und sich je nach Anwendungszweck ganz flexibel verknüpfen und vernetzen lassen. In Zukunft entsteht daher eine neuartige Form allgegenwärtiger, aber zugleich auch kaum sichtbarer Infrastruktur, die nicht selten mit den Begriffen wie Ambient Intelligence, Ubiquitous Computing, Pervasive Computing oder auch etwa ad hoc Netze belegt wird. Diese Allgegenwärtigkeit von Computer- und Vernetzungsleistung scheint demnach ein prägendes Merkmal einer gar nicht mehr weit entfernten gesellschaftlichen und wirtschaftlichen Zukunft zu werden, in welcher der Mensch als in eine digitale Umgebung eingebettet erscheint. Alles, was sich elektronisch bzw. digital aus der Welt des Menschen abbilden lässt, steht dann prinzipiell zur Verfügung und kann mit Hilfe geeigneter Services zu seiner Unterstützung sinnvoll nutzbar gemacht werden. Hier liegt der Ausgangspunkt der heutigen Fachkonferenz und der Fragen, die beleuchtet werden sollen. Welche konkreten technischen Entwicklungen sind absehbar und liegen noch vor uns? Werden diese den Menschen im besten Sinne umhegen, so wie es das Thema der Konferenz anspricht? Oder wird der Mensch abhängig, unselbstständig oder gar dominiert? Wo liegen wirkliche Nutzenpotenziale? Wo liegen offene Fragen und Probleme im Zusammenspiel zwischen dem Menschen und seinen künftigen digitalen Systemumwelten? Welche Voraussetzungen sind zu erfüllen, damit nachhaltiger Nutzen gestiftet und Freiräume für menschliche Freiheit, Entfaltung und Kreativität geschaffen, also nicht verschlossen werden? Welche Beiträge können dabei die verschiedenen Disziplinen, die Natur- und Ingenieurwissenschaften, die Sozial- und Wirtschaftswissenschaften, aber auch die Praxis, die Wirtschaft und die Politik leisten? In der Geschichte der Menschheit hat jede neue Technologie und jede neue Form der Infrastruktur dem einzelnen letztlich enorme neue Möglichkeiten eröffnet, ihn aber andererseits auch abhängiger gemacht von den Vorleistungen und von dem Funktionieren mancherlei Systeme und gemeinschaftlicher Einrichtungen, die das Individuum allein nicht zu beherrschen und zu erstellen in der Lage wäre. Das ist in gewisser Weise die Logik, der Preis des Fortschritts, und das wird uns auch in den vor uns liegenden Generationen der Informations- und Kommunikationstechnik wiederum so begleiten. Unsere Aufgabe besteht darin, die positiven Möglichkeiten frühzeitig zu identifizieren und zu fördern sowie die sich abzeichnenden Herausforderungen und Probleme aufzugreifen und durch kritisch konstruktive Diskussion beherrschbar zu machen. Dazu soll die heutige Veranstaltung dienen.
2 Die bunte Welt der „Ambient Intelligence“ Prof. Dr. José Encarnação Fraunhofer Institut für Graphische Datenverarbeitung, Darmstadt Die Vorstellungen, die ich hier entwickeln und präsentieren werde, basieren auf eigenen Entwicklungen, aber auch auf der Arbeit, die ich in Brüssel als Vorsitzender der ISTAG der EU-Beratergruppe für das 6. Rahmenprogramm gemacht habe. In diesem Gremium haben wir sowohl für das Framework Programm 6 wie jetzt in Vorbereitung für das Framework Programm 7 versucht, einiges an Visionen zu entwickeln und zu Papier zu bringen, die sehr starken Einfluss auf die zukünftige Förderung haben werden. Die Vorstellungen sind geprägt durch die starke Marktorientierung der Themen aber auch deutlich von der Industrie. Ich bin, wenn Sie so wollen, auch geprägt von diesen Arbeiten. Ich stelle deshalb hier diese spezielle Sicht des Ambient Intelligence vor – man kann selbstverständlich viele andere haben. Ich werde versuchen, Ihnen zunächst einmal die Motivation zu geben für meine Definition von Ambient Intelligence (AmI). Dann berichten über einige Beispiele auf die beiden wichtigsten Enabling Technologies, die Presence und die Awareness, d.h. das System muss wissen, wo ich bin und was ich von der Umgebung erwarte. Dann will ich einige Szenarien mit Ihnen durchgehen. AmI wird nicht allein in der Welt sein, sondern wird integriert und eingesetzt werden müssen in Anwendungen, d.h. die Integration dieser Vision mit anderen, von der Anwendung her geprägten oder bereits existierenden, Visionen muss vorgenommen werden. Danach komme ich zu den europäischen Aspekten dieses Kontextes und wie AmI mehr und mehr zu einer Wirklichkeit wird.
4
José Encarnação
Bild 1
Das ist ein Kind, und wir haben alle schon unsere Träume gehabt (Bild 1). Auch Mathilda hat Träume und diese Träume sind die Träume von jemandem, der gern hätte, dass die eigene Umgebung alles erfüllt, was man von der Umgebung erwartet. Das heißt, dass man als Kind geträumt hat und die Umgebung alles macht, was man sich wünscht und dass alle Wünsche erfüllt werden. Und Mathilda zeigt, was sie von ihrer Umgebung erwartet. Jetzt gehen die Fenster auf. Das sind Träume. Wir haben alle geträumt, dass unser Umfeld und unsere Umgebung intelligent werden. Das ist derart in uns drin, dass auch der Bereich Science Fiction dieses Thema übernommen hat. Hier sehen Sie einen Videoclip von Tom Cruise, der zeigt wie sich die Filmindustrie in einem Science Fiction Film der Vision von Ambient Intelligence bedient. Auch er gibt mittels Sprachein- und -ausgabe und Gesten Kommandos und seine Umgebung reagiert auf ihn. („Videoausschnitt“).
2 Die bunte Welt der „Ambient Intelligence“
5
Alles, was wir uns als Kinder erträumt haben, haben wir angefangen, in Science Fiction zu realisieren. Es ergibt sich jetzt die Frage, ob daraus Wirklichkeit werden könnte. Es gibt genug Leute, die sagten, dass es keinen Bedarf für einen Computer zuhause gibt. Wir wissen alle, dass diese Voraussage falsch war und deswegen sollen wir auch vorsichtig sein mit Negativaussagen, dass aus AmI nie etwas wird. Es könnte sein, dass wir uns wieder einmal täuschen. Wir versuchen mit AmI, intelligente Welt zu schaffen, in der die sogenannten Smart-Players, die ich gleich beschreiben werde, in der Mitte der Entwicklung stehen. Man weiß, wo sie sind, wohin sie sich orientieren und welche Bedürfnisse sie haben. Und die Umgebung bedient sie.
Bild 2
Lassen Sie uns jetzt etwas mehr technologisch einsteigen und darüber sprechen, was AmI ist (Bild 2). AmI ist alles, was mit intelligenten Umgebungen zu tun hat und mit Smart-Players, die in dieser Umgebung agieren, reagieren und bedient werden anhand von zielorientierten Vorgaben, die vom Benutzer kommen. Es gibt verschiedene Typen von Smart-Players.
6
José Encarnação
Bild 3
Selbstverständlich als erstes der Mensch, aber man soll AmI nicht nur mit Consumer Electronics und Produkten, die für den Menschen gedacht sind, in Zusammenhang stellen (Bild 3).
Bild 4
Sie sehen hier z.B. welche Entwicklungen schon im Entstehen sind für den Bereich, in dem der Mensch im Mittelpunkt ist; im Auto, zuhause, in der Küche, bei der Arbeit (Bild 4).
2 Die bunte Welt der „Ambient Intelligence“
7
Bild 5
Aber es gibt z.B. in den skandinavischen Ländern und in Amerika eine Anwendung, in der es darum geht, mit intelligenten Umgebungen Tierherden zu steuern, zu bewachen und zu betreuen (Bild 5).
Bild 6
Es können intelligente Appliances sein, also intelligente Objekte, die dann über Sensoren und Kameras mit Smartlabels so in der Umgebung integriert sind, dass sich dann daraus bedingt Funktionalitäten ergeben (Bild 6).
8
José Encarnação
Bild 7
Es können Arbeitsplätze sein, die genauso integriert sind in der Umgebung, oder es können auch Maschinen sein, Roboter, die am Arbeitsplatz und in den Produktionsumgebungen dann von der Umgebung bedient werden (Bild 7). Das heißt, unter Ambient Intelligence wollen wir hier eine breitere Vision verstehen. Darunter ist also nicht nur die menschzentrierte Kommunikationen zu verstehen, sondern alles, was intelligente Player in intelligente Umgebung integriert und sie dann anhand von bestimmten zielorientierten Vorgaben von dieser Umgebung bedienen lässt.
Bild 8
Da sehen Sie Mathilda wieder (Bild 8). Sie ist inzwischen ein bisschen älter geworden. Sie ist ein intelligentes Mädchen und erwartet, dass AmI als Vision realisiert wird. Die Technologie ist bereits heute vorhanden.
2 Die bunte Welt der „Ambient Intelligence“
9
Bild 9
Wir haben in der Gesprächstechnologie sehr viele Fortschritte gehabt. Wir haben full coloured inject polymer-basierte Systeme, die schon eine vernünftige Auflösung haben (Bild 9).
Bild 10
Wir haben für die Konnektivität die sog. Tagging Devices, die sowohl aktiv wie passiv sein können (Bild 10).
10
José Encarnação
Bild 11
Wir haben die Wearables; immer mehr Wearables kommen auf den Markt, am Körper oder in der Umgebung – auch für die Context-Awareness, d.h. unter anderem die Feststellung der Position haben wir schon viele Komponenten, die diese Integration des Smart Players in die Umgebung technologisch ermöglichen (Bild 11). Das Ganze wird dann mehr und mehr zu einem Software- und zu einem Interaktionsproblem.
Bild 12
Wenn Sie sich diese zwei Bilder anschauen: Da ist wieder Mathilda, wie sie heute da sitzt – jede Menge Fernbedienungsgeräte auf dem Tisch (Bild 12). Was sie gern
2 Die bunte Welt der „Ambient Intelligence“
11
hätte, sehen Sie auf der rechten Seite. Dass nach Möglichkeit diese ganzen Fernbedienungen und die vielen Displays wegfallen und sie sich in einer intelligenten Umgebung aufhalten und bedienen lassen kann.
Bild 13
Bild 14
Es gibt viele Visionen, die um diesen Bereich herum entwickelt werden. Ich habe hier einige aufgelistet (Bild 13, Bild 14). Auch in unserer Industrie gibt es sehr viele
12
José Encarnação
Entwicklungen, die sehr interessant und weit gediehen sind. In der EU, aber auch bei Philips u. a. bei Herrn Arts, bei Siemens u. a. bei Herrn Raffler gibt es schon viele Entwicklungen und Prototypen für diesen Bereich. Es kommt aber immer wieder die Frage, ob es überhaupt einen Unterschied gibt zwischen Pervasive Computing und Ambient Intelligence. Und wenn es einen gibt, was ist das für ein Unterschied? Im Grunde genommen sind beide mehr oder weniger dasselbe. Aber Sie betrachten das Umfeld von zwei verschiedenen Blickpunkten. Der eine betrachtet es von Seiten der Technologie, das ist das Pervasive Computing, und betrachtet das Ganze als evolutionären Prozess. Gegeben ist neue Technologie. Wie können wir diese miteinander integrieren und was können wir daraus machen? Die andere Seite ist die AmI-Vision und wird mehr von der Benutzerseite getrieben. Es gibt Firmen in Europa wie Philips, Siemens, Daimler, Fiat, Nokia, Ericsson, Alcatel und Thomson, um nur einige zu nennen. Auch diese Firmen müssen sich Gedanken machen, wie sie mit ihrer Produktpalette diese neue Welt, die auf uns zukommt, bedienen. Auf der einen Seite können Sie sagen, die Microsofts, IBMs, Oracles, Hewlett Packards werden schon Technologien entwickeln und wenn das auf den Markt kommt, werden wir uns überlegen, was wir damit machen werden. Aber sicherlich ist es berechtigt, auch eine andere Vision zu haben. Was haben wir für Industrien, die in diesen evolutionären Prozess gehen müssen und was müssten die dann technologisch machen, um ihre Produkte in diesem Kontext in die nächste Generation zu bringen? Das sind die zwei Visionen von demselben Problem. Im Grunde genommen sind Ubiquitous Computing und Ambient Intelligence mehr oder weniger dasselbe, nur von zwei verschiedenen Perspektiven her betrachtet. Wenn wir die AmI-Vision jetzt von einer Systembetrachtung her realisieren wollen, dann wird der Benutzer in den Mittelpunkt der Betrachtung gestellt. D.h. die Umgebung muss das machen, was der Benutzer erwartet ohne ihn viel über den Kontext zu fragen, d.h. das System muss in der Lage sein, diesen Kontext selbst herzuleiten. Wir müssen erwarten, dass er jetzt nicht die gesamten Technologien und Geräte, die ihm zur Verfügung stehen, in diesem Kontext selbst orchestriert, sondern das System muss das für ihn selbst organisieren und das Ganze muss multimodal sein, denn wir wollen nicht nur multimedial, sondern wir wollen Sprachein- und -ausgabe realisieren, wir wollen Gesten und Mimik interpretieren können, um auch die Situation der Smartplayers in der Umgebung erfassen zu können. Das heißt, wir müssen kohärent sein, wir müssen von der Technologie, die die meisten zur Verfügung haben und ggf. durch Assistenzsysteme unterstützt benutzen, zu einer selbstorganisierenden Funktionalität kommen.
2 Die bunte Welt der „Ambient Intelligence“
13
Bild 15
Sie sehen hier ein Beispiel aus einem Projekt (Bild 15). Nehmen Sie an, dass der Benutzer ein helleres Fernsehbild haben möchte. Er gibt per Spracheingabe ein entsprechendes Kommando an die Umgebung. Wenn das System erkennt, dass der Fernseher bereits auf maximale Helligkeit eingestellt ist, muss es möglich sein, dass die Umgebung automatisch das Licht dimmt und die Jalousien schließt, um auf diese Weise ein subjektiv helleres Bild zu erreichen. Die Umgebung muss sozusagen selbst in der Lage sein, auf solche Aktionen des Benutzers selbstständig zu reagieren. Die Interaktionen werden zielorientiert sein („helleres Bild“).
14
José Encarnação
Bild 16
Wir werden nicht mehr funktionsbasiert die Software realisieren, sondern zielorientiert, damit dann die Smartplayers in ihrer Umgebung so verstanden werden, dass dann die entsprechenden Geräte ausgesucht und die entsprechenden Aktionen ausgeführt werden (Bild 16). Wir werden nicht mehr funktions- und geräteorientiert interagieren, sondern wir werden in einem benutzer-smartplayerorientierten Vokabular diese Interaktion realisieren. Wir müssen von einer zufälligen Kollektion von voneinander unabhängigen Geräten wegkommen und die Umgebung muss als eine kohärente Zusammenfassung von Appliances funktional zusammenhängen.
2 Die bunte Welt der „Ambient Intelligence“
15
Bild 17
Wir müssen eine neue Architektur aufbauen, die durch die Analyse der Intention des Benutzers versucht die Ziele zu interpretieren, die dann eine strategische Planung erlauben, aus der sich die Aktionen ergeben, die letztlich dann selbstverständlich von irgendwelchen Geräten, von irgendwelchen Appliances ausgeführt werden (Bild 17). Die Herausforderung ist diese Konsistenz miteinander zu integrieren und funktional für den Benutzer zur Verfügung zu stellen. D.h. wir werden eine Komponentenarchitektur realisieren, indem wir von der Interaktion über die Ziele zu der notwendigen Assistenz und zu einer Ausführung kommen In dieser Pipeline werden wir laufend von dem Kontext begleitet, der selbst automatisch von dem System erfasst und in Parameter umgesetzt wird, die diese Pipeline dann steuern.
16
José Encarnação
Bild 18
Es muss dann so realisiert werden, dass wir über die Sensoren, die die Smartplayers in der Umgebung registrieren, dann die Strategie herleiten, die gebraucht wird (Bild 18). Daraus ergeben sich die Algorithmen, die umgesetzt und integriert werden müssen, um die Assistenz zu realisieren. Dann werden diese Assistenzen so integriert, dass Akteure sie dann in irgendwelche Aktionen umsetzen, die im Kontext der Aufgaben oder der Dienstleistungen notwendig sind.
2 Die bunte Welt der „Ambient Intelligence“
17
Bild 19
Die Software und Systemarchitektur, die notwendig ist, um AmI zu realisieren, befindet bereits in den verschiedensten Projekten schon in der Umsetzung (Bild 19). Letztlich hat man eine Architektur, die mehr oder weniger drei Agenten benutzt: Einer für die Aktivitäten des Benutzers, der andere für die Reaktion der Umgebung und der dritte, der Dialogagent, der dann in der Lage ist, die Aktionen der Smartplayers in einem gegebenen Kontext so zu interpretieren, sodass die beiden dann in einer Interaktion miteinander die Systemarchitektur durchlaufen können.
18
José Encarnação
Bild 20
AmI ist in diesem Kontext auch eine große Herausforderung für das Softwareengineering: Die Aufgabe lässt sich nur realisieren, wenn auch in anderen Bereichen Fortschritte erzielt werden (Bild 20). Es müssen neue Schnittstellen und Methoden für die Anwendungs- und Dienstleistungsprogrammierung (Authoring Tools) entwickelt werden. Der Bereich Softwareengineering wird hier sehr gefordert sein. Die Entwicklung von Middleware, Webservices usw. sind Themen, die notwendig sind zur Flankierung und Unterstützung dieser Realisierung, auf die ich aber hier nicht weiter eingehen möchte.
2 Die bunte Welt der „Ambient Intelligence“
19
Bild 21
Die beiden Technologien, die Schlüssel sind für AmI, sind auf der einen Seite die Präsenz (Bild 21). Ich muss in der Lage sein in der intelligenten Umgebung festzustellen, wo sich der Benutzer befindet. Themen wie virtuelle Realität, erweiterte Realität, Mixed Reality spielen hier eine große Rolle. Auch Awareness, d.h. ich muss feststellen, welche Aufgabe der Benutzer in einer bestimmten Situation an einem bestimmten Ort mit bestimmten Ressourcen durchgeführt und unterstützt haben möchte. Dafür gibt es noch viele Forschungsthemen, die zu realisieren sind.
20
José Encarnação
Bild 22
Bild 23
Hier ist eine Liste, die in Brüssel veröffentlicht wurde und Basis für die nächsten Calls im 6. FRP sein wird (Bild 22, Bild 23). Es ist in diesem Bereich schon eine Menge vorhanden, das wir benutzen können, aber noch eine Menge zu tun. Dazu
2 Die bunte Welt der „Ambient Intelligence“
21
zählen Themen wie zum Beispiel Digital Storytelling. Denn plötzlich ist die Programmierung nicht mehr eine algorithmen- oder prozessorientierte Programmierung, sondern man programmiert, wie man eine Geschichte erzählt. Die Programmierung wird mehr einer Filmproduktion gleichen. Da gibt es verschiedene Leute, die mit verschiedenen Funktionen als Team zusammenarbeiten müssen, um das Programm zusammenzustellen. Auch die Frage der sozialen Kommunikation, der Nutzung von Avataren und Visuellen Agenten ist ein weiteres wichtiges Gebiet. Hier gibt es in Deutschland ein sehr interessantes Projekt, der sogenannte Virtual Human, mit bestmöglicher Graphikqualität, für die ich verantwortlich zeichne und mit der bestmöglichen Sprachein- und –ausgabequalität, für die der Kollege Wahlster verantwortlich zeigt. Wir versuchen beides so zu integrieren, dass wir diese Avatare, diese soziale Kommunikation in einer vernünftigen Form anbieten können.
Bild 24
Anwendungsszenarien gibt es viele. Hier sind einige angegeben für den Bereich der Human Centric AmI (Bild 24). In den nächsten Jahren wird auf diesem Gebiet zum Realisieren der Software und Systemarchitekturen, die ich vorhin kurz beschrieben habe, Erfahrungen gesammelt, um letztlich dann Ergebnisse auf den Markt zu bringen. Wenn wir es schaffen, dass wir für die Bereiche Presence- und AwarenessTechnologien die Fortschritte erzielen, die im Augenblick zu erwarten sind, dann werden wir im Bereich Dialog und Interaktion sowie in der Nutzung in der Lage sein, die AmI-Vision zu realisieren. Sie haben alle gehört, dass diese Technologieplattformen Teil der Prioritäten in den Förderprogrammen, sowohl national wie europäisch, sind. Die Bereiche Nanotechnologie, Embedded Systeme, Mobile Technologie und Sensortechnologie werden hier von entscheidender Bedeutung
22
José Encarnação
sein. Wenn es uns gelingt, die notwendigen Fortschritte auf diesen Gebieten zu realisieren, werden wir neue Geräte, neue Produkte, neue Systeme mit neuen Inhalten entwickeln, die neue Dienstleistungen in verschiedenen Anwendungsumfeldern ermöglichen. Eine solche Innovation würde dann eine ganz neue Industrie ermöglichen, die sicherlich in den heutigen Diskussionen von Bedeutung wären, denn es würde sehr viele Arbeitsplätze generiert.
Bild 25
Voraussetzung ist aber, dass wir die drei Themen beherrschen müssen (Bild 25): • Interdisziplinarität – das Thema bedeutet hier verschiedene Technologien und dass, wie Herr Picot sagte, auch verschiedene Sciences integriert werden müssen; • Multikulturalität – gerade in Europa mit verschiedenen Kulturen und Sprachen, die alle integriert werden müssen, und • Interoperabilität – d.h. die Systeme müssen miteinander reden können. Deswegen wird hier eine allgemeine Referenzarchitektur entstehen müssen, wo zwar die Players in der Industrie miteinander konkurrieren, aber trotzdem mit gewissen Absprachen eine gewisse Interoperabilität garantieren, das sozusagen die Economy of Scale sicherstellt.
2 Die bunte Welt der „Ambient Intelligence“
23
Bild 26
Szenarien für dieses Thema gibt es viele. Wenn Sie das Thema Human Centric nehmen – ich habe gesagt, es gibt verschiedene Typen von Smartplayers, einer davon ist der Mensch –, dann sehen Sie hier auch das Bild, d.h. es gibt Szenarien zuhause, im Auto, in der Arbeit, am Körper (Bild 26). Und das, was Sie aus Ihrer Sicht so halbgrau-halbgrün sehen, sind die funktionalen Komponenten, die notwendig sind, um diese Szenarien zu realisieren. Wie Sie unten rechts sehen, laufen wir Gefahr, dass wir wieder einmal Importeure werden und zwar von den Technologien, die in Amerika im Kontext Pervasive und Ubiquitous Computing entwickelt werden. Aber in den drei anderen Kästen oben rechts und auf der linken Seite, hat Deutschland, hat Europa eine eigene Industrie, die daran interessiert ist, dies in ihren Produkten, Systemen, Dienstleistungen und Anwendungen zu realisieren und zu integrieren. Die Frage in der Zukunft auf dem Markt wird sein, welche Master-Slave-Rolle sich hier entwickeln wird. Müssen wir warten bis von unten rechts die Technologie kommt, um uns dann Gedanken zu machen, wie wir sie bei uns benutzen oder könnten wir über unseren Markt, über unsere Spezifika Vorgaben geben, die dann selbstverständlich von der IT-Industrie, von den Technologielieferanten, zu befriedigen sind?
24
José Encarnação
Bild 27
Lassen Sie mich jetzt einige Beispiele geben, über AmI at home. Es gab zwei Projekte, die vom BMBF finanziert wurden. Das eine war das Embassi-Projekt (Bild 27). Hierbei ging es darum, Dienstleistungsassistenz als persönliche Assistenz mit Multimedialität und Multimodalität, mit neuer benutzeradaptiven Interaktionsformen zu entwickeln. Im Rahmen des Projektes sind die Themen der zielorientierten Interaktion und auch der Orchestrierung von verschiedenen Devices und Appliances bearbeitet worden. Es sind schon sehr interessante Ergebnisse, mit dem Ziel, Interoperabilität zu ermöglichen, erzielt worden.
2 Die bunte Welt der „Ambient Intelligence“
25
Bild 28
DynAMITE ist ein zweites Projekt aus diesem Bereich (Bild 28). Dort geht es insbesondere um die Frage der Middleware. Hier wurden die Ergebnisse, die in EMBASSI entwickelt wurden, aufgegriffen und die Entwicklung fortgeführt. Eine Anwendung, die auf Basis dieser Middleware entwickelt wurde ist der Personal Environmental Controller (PECo). Im Bereich AmI für Outdoor Anwendungen geht es darum, dass Sie mit den sogenannten Wearables herumlaufen und dann das System in der Lage ist, die Position, die Blickrichtung und auch die Dienstleistung, die Sie erwarten, zur Verfügung zu stellen. Wir haben im Kontext der Olympischen Spiele in Griechenland exemplarisch den „Mobile Travel Guide“ entwickelt. Sie laufen auf dem Gelände des antiken Olympia herum, sehen die Monumente und Denkmäler und wünschen sich dann, diese zu einem bestimmten Zeitpunkt in einer bestimmten Sicht zu sehen (Bild 29). Das System stellt die Parameter fest, die für die Perspektive notwendig sind und überlagert dann die Information als Modell auf die Ruine, die Sie gerade anschauen.
26
José Encarnação
Bild 29
Bild 30
Der Anwender schaut sich diese Ruine an. Das System stellt fest, in welche Richtung er schaut. Die perspektivischen Parameter werden in das Modellierungssystem eingegeben und jetzt wird ein von ihm gewünschtes Modell der Ruine überlagert (Bild 30). Hier gibt es noch die Probleme, dass wir draußen im Freien arbeiten, aber
2 Die bunte Welt der „Ambient Intelligence“
27
Sie sehen, dass die ersten Prototypen schon interessante Ergebnisse zeigen und andeuten, in welche Richtung der Fortschritt hier gehen wird.
Bild 31
Lassen Sie mich jetzt über andere Anwendungsbereiche, z.B. in der Fabrik sprechen. Insbesondere die Automobilindustrie versucht diese Vision für die verschiedensten Bereiche umzusetzen in der Entwicklung, Produktion und Dienstleistung (Bild 31, Bild 32).
Bild 32
28
José Encarnação
Hier ein Video aus dem ARVIKA-Projekt, das erste Ergebnisse zeigt: „Videobeispiel über ARVIKA“ Um die Redezeit nicht zu überziehen breche ich das Video an dieser Stelle ab. Sie können sich sicher vorstellen, dass diese Technologie schon in einigen Prototypanwendungen eingesetzt wird.
Bild 33
Aber auch im Sport wird sie gängiger und auch hierzu ein Beispiel: „StepMan“ (Bild 33).
Bild 34
Im medizinischen Bereich versuchen die großen Firmen mehr und mehr diese Technologie, diese Vision zu verwenden. Nicht nur um Erkrankungen zu heilen,
2 Die bunte Welt der „Ambient Intelligence“
29
sondern insbesondere, um die Menschen gesund zu halten. Da gibt es verschiedene Lösungen, die im Augenblick in der Arbeit sind. Man versucht, Technologie so in die Kleidung zu integrieren, dass sie nicht stört und intuitiv benutzt werden kann (Bild 34, Bild 35).
Bild 35
Bild 36
Hier einige Beispiele von Philips, die insbesondere für ältere Menschen gedacht sind. In dem Bereich der „On Body Electronics“ werden mehr und mehr integrierte
30
José Encarnação
elektronische Komponenten in die Kleidung einsetzt, die dann drahtlos bestimmte Funktionalitäten und Dienstleistungen zur Verfügung stellen (Bild 36).
Bild 37
Bild 38
AmI ist natürlich nicht allein in der Welt, sondern muss mit anderen Anwendungen und Visionen koexistieren (Bild 37, Bild 38). Deshalb muss die AmI-Vision nicht erweitert, sondern optimal integriert werden mit anderen Visionen und Anwen-
2 Die bunte Welt der „Ambient Intelligence“
31
dungen, mit denen sie interagieren und zusammenarbeiten soll. Hier sind Beispiele aus dem Kontext intelligenter Logistik. Man versucht, mit selbstorganisierender Logistik und intelligenter Umgebung beide Umfelder miteinander zu integrieren.
Bild 39
Hier ein anderes Beispiel aus dem Bereich Business Processes, wo man für das LiveCycle Management auch versucht, beide Visionen optimal und effizient miteinander zu integrieren. Das Problem ist nicht, AmI für alle, sondern AmI ist die Schnittstelle zu der Umgebung, zu der Interaktion und Kommunikation. Diese muss integriert werden mit der jeweiligen Anwendungsvision (Bild 39).
32
José Encarnação
Bild 40
AmI hat aber auch viel mit Europa zu tun, weil es besondere Aspekte berücksichtigt, die unsere europäische Kultur bedeuten (Bild 40). In verschiedenen Bereichen wie Airbus, Eurofighter oder Ariane wurde gezeigt, dass Europa das auch kann. Die Chancen für eine ähnliche Entwicklung bestehen auch für AmI (Bild 41).
Bild 41
2 Die bunte Welt der „Ambient Intelligence“
33
Ich bringe jetzt die Erläuterung, warum das in Europa von Bedeutung ist. Wir wissen alle, dass die Menschen in Europa sich nicht so bewegen wollen, wie das vielleicht in anderen Teilen der Erde ist. Dass man miteinander vernetzt sein will, ohne dass man das individualisierte Dasein vernachlässigt. Man will sozusagen nicht allein behandelt werden, sondern man will in einer bestimmten Umgebung beobachtet und unterstützt werden. Auch im Bereich von Politik und Administration gibt es bestimmte europäische Charakteristiken, die sich besonders intelligent in diesem ehemaligen Kontext umsetzen lassen können.
Bild 42
Aber AmI wird, und das hoffe ich Ihnen mit einigen Beispielen gezeigt zu haben, langsam aber sicher Realität. Und da ist unsere Mathilda, die inzwischen 60 Jahre alt geworden ist (Bild 42). Sie trägt diese Wearables in ihrem Mieder, die darauf achten, was mit ihrem Herzen los ist, mit ihrem Blutdruck, d.h. sie hat ihre Gesundheit unter Kontrolle. Sie sehen, auf dem Tisch hat sie die Möglichkeit, ihr Essen zu bestellen und in der Zwischenzeit ein bisschen zu spielen. In meinem Vortrag habe ich versucht, den Übergang vom Traum eines Kindes über Science Fiction zu den Erwartungen der Mathilda mit 30, 40 Jahren bis zur 60jährigen Mathilda zu zeigen und viele von Ihnen werden sagen, dass das alles vielleicht ein bisschen zu weit weg ist. Aber unmöglich muss unmöglich sein, wenn wir
34
José Encarnação
mit Hilfe von Innovationen weiter kommen wollen. Um das zu tun, wie hier schon Aristoteles sagte: Wir können nur lernen, wenn wir es tun, wenn wir versuchen, wenn wir damit experimentieren. Ich möchte mich bei allen bedanken, die Audiovisuals für Präsentationen zur Verfügung gestellt haben. In diesem Sinne: Wer nichts Neues ausprobiert landet immer an der gleichen Stelle.
3 Ubiquitous Computing – Machbarkeit und Grenzen Claudia Linnhoff-Popien Universität München Der Übergang von Verteilten Systemen zu Ubiquitous Computing Systemen ist durch eine Diversifikation von intelligenten Endgeräten geprägt, die über mobile und Ad-Hoc-Netze miteinander kommunizieren. Im folgenden soll auf die Machbarkeit des Ubiquitous Computing aus dreierlei Perspektiven eingegangen werden – aus Sicht der Hardware, der zugrunde liegenden Netze und der Anwendungen. Ferner sollen Restriktionen aufgelistet werden, die das Ubiquitous Computing noch vom zu erhoffenden großen wirtschaftlichen Erfolg abhalten.
1. Einleitung Aus historischer Sicht sind seit Beginn der Modern Computer Era in den 50er Jahren zwei Schritte vollzogen worden: Mitte der 70er Jahre erfolgte der Übergang von den zentralen Großrechnern hin zu Verteilten Systemen – ausgelöst durch die Leistungsexplosion im Bereich der Halbleiterchips, die Bereitstellung schneller, lokaler Datennetze sowie die Akzeptanz programmiersprachlicher Konzepte wir Prozedur, Modul und Schnittstelle. Anfang dieses Jahrhunderts entwickelte sich das Ubiquitous Computing. Noch mehr Hardware pro Nutzer führt zu einer Diversifikation der Endgeräte. Der Nutzer ist von zahlreichen i.d.R. kleinen und intelligenten Endgeräten umgeben, die omnipräsent Teil unseres Alltags werden. Mobile und Ad-Hoc-Netze prägen den Informationszugang, und Personalisierung und Kontextsensitivität zeichnen die Applikationen aus. Interpoliert man diese Entwicklung, so können zukünftig Endgeräte und Sensoren in beliebiger Anzahl verwendet werden, um selbstorganisierend Informationen aus der Umgebung aufzunehmen, zu verarbeiten und zu transportieren. Hierbei sind Netze der nächsten Generation anzudenken, die beliebige Mobilität realisieren und dabei jede nur vorstellbare Anwendung implementierbar werden lassen.
36
Claudia Linnhoff-Popien
Zur Einordnung der wirtschaftlichen Bedeutung gegenwärtiger Systeme und ihrer Bestandteile soll die aktuelle Situation des Informations- und Kommunikationsmarktes betrachtet werden. Laut einer Prognose der Eito [Eito 04] wird das Umsatzwachstum im Segment der Hardware im kommenden Jahr eine Steigerung von 1,9% erfahren, bei den Telekommunikationsdiensten wird mit +3,2% gerechnet – für ITServices und Software wird hingegen eine Umsatzsteigerung von 5% erwartet. Unterteilt man die Übertragungsdienste in Sprach- und Datendienste, so ist zu beobachten, dass der Umsatz mit Sprachdiensten abnimmt, sogar bei einem Umsatzwachstum der Übertragungsdienste. Damit ist der Wachstumsmotor bei den Diensten in der Datenübertragung zu sehen. Wie ist diese Tendenz zu erklären? Dazu soll die Wertschöpfung im Bereich des Mobilen Handels betrachtet werden. Das Global Mobile Commerce Forum definiert Mobile Commerce (M-Commerce) offiziell als „The delivery of electronic commerce capabilities directly into the consumer’s device, anywhere, anytime via wireless networks.” Dies betrifft sowohl B2B- als auch B2C-Geschäftsbeziehungen. Das Potential für M-Commerce resultiert dabei aus der Verbreitung mobiler Endgeräte, im wesentlichen noch der Mobiltelefone. Aus Sicht der Verschiebung des Umsatzwachstums von den Sprach- zu den Datendiensten resultiert eine Attraktivität neuer, paketvermittelnder Techniken daraus, dass Anwender immer online sein können, da nur die Menge der übertragenen Daten in Rechnung gestellt wird und der relativ langsame Verbindungsaufbau entfällt. Aus wirtschaftlicher Sicht führt diese Entwicklung zu zwei Tendenzen: Es können neue, mobile Dienste angeboten werden. Es entstehen neue Akteure wie z.B. Internet-Portal-Betreiber, ContentProvider, On-line-Medienunternehmen. Betrachtet man die Wertschöpfungskette Endgeräte – Netzzugang – Dienste hinsichtlich der wichtigsten Akteure am Markt so ist eine Verschiebung der Schwerpunkte nach hinten hin bereits etabliert. Hier ist das größte Umsatzwachstum zu erwarten, da bereits gut entwickelte Endgeräte mit relativ etabliertem Netzzugang bestehen. Es verfügt kein Unternehmen über ausreichende Ressourcen und Kenntnisse, um erfolgreich die komplette Wertschöpfungskette besetzen zu können. Daher müssen sich strategische Allianzen bilden. Letztendlich ist es jedoch nötig für einen kommerziellen Erfolg der mobilen Informationsgesellschaft, attraktive Dienste und Anwendungen zu entwickeln, die eine Nachfrage am Markt in allen Segmenten der Wertschöpfung anhalten lassen.
2. Intelligente Endgeräte Ein intelligentes Endgerät ist allgemein ein Gerät mit eingebettetem Prozessor, Speicher und einem Netzzugang [HMNS 01]. Die Bezeichnung „intelligent“ bezieht sich dabei auf die Fähigkeit, digitale Informationen zu speichern, verarbeiten und
3 Ubiquitous Computing – Machbarkeit und Grenzen
37
auszutauschen. In der Regel sind derartige Geräte stark dezentralisiert, sie werden diversifiziert eingesetzt und sind optimalerweise einfach zu handhaben. Im folgenden sollen 4 Klassen derartiger Geräte unterschieden werden.
2.1 Persönliche Informationssysteme Personal Digital Assistants (PDAs), Handheld Computer, Sub-Notebooks und Mobiltelefone sind sehr kleine Geräte, sie passen in quasi jede Tasche und sind folglich auch sehr leicht. Die Eingabe erfolgt über eine sehr kleine Tastatur oder einen Eingabestift auf einem Touch Screen. Diese Geräte führen verschiedene Funktionalitäten zusammen (z.B. Terminplaner, Adressbuch, einfache Anwendungen und Spiele, Taschenrechner, Telekommunikationsnetz- oder Internetzugang, Schnittstelle zu PC-Applikationen u.s.w.) und machen sie überall und zu jeder Zeit verfügbar. Zwecks Kommunikation zwischen den Geräten existiert oft eine Infrarot- oder Bluetooth-Schnittstelle. Auf diesen Geräten laufen im wesentlichen 3 verschiedene Betriebssysteme: Palm OS, Windows CE und Symbian, letzteres als Weiterentwicklung von EPOC. Während Geräte basierend auf Palm OS um die Jahrtausendwende noch 70% Marktanteil besaßen, geht die aktuelle Akzeptanz und Verbreitung dieser Betriebssysteme hin zu den komfortableren, auch echtzeitfähigen Systemen, so dass Symbian tendenziell vor Windows CE und Palm OS liegt (vgl. www.canalys.com) (Bild 1).
Bild 1: Marktanteil der Betriebssysteme bei Personal Information Systemen nach Fa. Canalys
2.2 Smart Cards, Tags und Labels Es gibt eine große Vielfalt von Techniken zur intelligenten Identifikation von Entitäten. Obwohl die Grenzen fließend sind, sollen die existierenden Geräte in zwei Klassen eingeteilt werden. Smart Cards. Smart Cards sind Single-Chip-Mikrocomputer, die in der Regel – auf einer Plastikkarte aufgebracht – kontaktbehaftet mit ihrer Umgebung kommuni-
38
Claudia Linnhoff-Popien
zieren können. Im Gegensatz zum passiven Magnetstreifen hat dieses Konzept den Vorteil, dass es nicht einfach kopierbar ist und damit als fälschungssicher gilt, z.B. in Geldkarten, Karten der Krankenkasse und SIM-Karten zur Authentifizierung von Mobilfunkteilnehmern. Vom Aufbau her haben sie neben einem Prozessor noch Speicherbausteine – ROM, auf dem für alle Chipserien während der Herstellung dieselben Informationen geschrieben werden, EEPROM zur persistenten Speicherung von nutzerspezifischen Daten und RAM zur temporären Speicherung von Prozessdaten. Eine Smart-Card-Anwendung besteht zum einen aus einer On-Card-Anwendung, d.h. Daten und ggf. ausführbarem Code, der direkt vom Smart-Card-Betriebssystem abgearbeitet wird. Der Anwendungsentwickler hat in der Regel keinen Einfluss auf den ausführbaren On-Card-Code, der durch den Entwickler des Karten-Betriebssystems erstellt wurde und vor Herstellung der Karte in die ROM-Maske integriert wurde. Und zum anderen besteht die Smart-Card-Anwendung aus einer Off-CardAnwendung, die vom Hostcomputer oder Terminal abgearbeitet wird, das mit der Smart Card über ein Kartenlesegerät verbunden ist. Durch die Standardisierung der Smart Cards wird sichergestellt, dass alle Smart Cards mit allen Chip-Lesegeräten interagieren können, und zwar unabhängig vom Ort, von der Anwendung und vom Hersteller. Gängige Betriebssyteme für die Smart Cards sind die Java Card Plattform, die in Java geschriebene Anwendungen ermöglicht, und Windows for Smart Cards, das es ebenfalls ermöglicht, auf der Karte gespeicherte Applets auch auf der Karte selbst auszuführen. Smart Labels/RFID-Tags. Die Radio Frequency Identification (RFID) ist eine Methode, um Daten berührungslos und ohne Sichtkontakt lesen und speichern zu können. RFID-Systeme bestehen aus mindestens einem Schreib-/Lesegerät und den an Objekten montierten Datenträgern, den Transpondern. Ferner benötigt die Infrastruktur Server, auf denen Dienste ausgeführt werden. Diese Übertragungssysteme unterscheiden sich von den herkömmlichen, optischen Bar-Code-Systemen dahingehend, dass keine Sichtverbindung zum Lesegerät notwendig ist, wodurch auch eine vollständige Integration der Transponder in die Objekte möglich ist. Hinsichtlich der Energieversorgung unterscheidet man aktive und passive Tags. Passive Tags haben keine eigene Energieversorgung und müssen ihre Versorgungsspannung durch Induktion aus den Funksignalen der Basisstation gewinnen. Sie können nur gelesen werden, außerdem ist die Menge der speicherbaren Daten relativ gering. Bei den aktiven Tags ist eine eigene Energieversorgung integriert. Sie erzielen dadurch eine höhere Reichweite und einen größeren Funktionsumfang, sind aber erheblich teurer. Dafür können sie jedoch gelesen und beschrieben werden, und dies bei Speicher im Megabytebereich.
3 Ubiquitous Computing – Machbarkeit und Grenzen
39
2.3 Eingebettete Systeme Eingebettete Systeme, sogenannte Embedded Systems, werden in der Regel als Sensor/Aktor-Systeme realisiert. Dabei sammeln Sensoren die Informationen aus ihrer Umgebung und sind mit einem Netzwerk verbunden, das sowohl verdrahtet als auch drahtlos sein kann. Aktoren nehmen Signale vom Netz auf und agieren mit ihrer unmittelbaren Umgebung. Sensoren und Aktoren werden auch unter dem Begriff Smart Control zusammengefasst. Derartige Elemente sind über einen Transceiver mit dem Netz verbunden. Diese Einheit erzeugt bzw. interpretiert die physikalischen Signale für bzw. vom Netz und führt Datenprotokolle der unteren Schichten aus. Darauf aufbauend interpretiert ein Mikroprozessor die über das Netz empfangenen Anweisungen, verarbeitet sie in der eigentlichen Sensor- oder Aktorhardware und sendet ggf. Antworten zurück. Ein Beispiel für eingebettete Systeme ist das Controller Area Network (CAN), das beispielsweise in Fahrzeugen eingesetzt wird. Die Steuergeräte sind an eine Busarchitektur angeschlossen, über die Nachrichten in Form sogenannter Bordnetztelegramme versendet werden können. Für die gewünschte Steuerung notwendige Parameter sind dabei im EEPROM gespeichert, wobei die Steuersoftware in der Regel in Flashspeichern abgelegt ist. Die Steuerung erfolgt durch die Definition sogenannter Aktionen, die als Ergebnis einer vom Sensor gemessenen Größe, die ggf. einen bestimmten Schwellwert überschreitet, eine Wirkung auf einen Aktor haben. Diese Aktionen sind also Relationen auf einem Sensor/Aktor-Paar. Sofern nicht nur Steuerinformationen übertragen werden, sondern eine höhere Bandbreite von Interesse ist, z.B. für multimediale Anwendungen, existiert ein separates Netz für den Media Oriented System Transport (MOST). Dieses nutzt Lichtwellenleiter für die Übertragung von Video- und Audiodaten.
2.4 Entertainment-Systeme Moderne Haushalte sind an zwei verschiedene Klassen von Netzen angeschlossen: das Telefon/Internet für die bidirektionale Point-to-Point-Kommunikation auf der einen Seite und das Radio/TV-Netz über Kabel, Satellit oder die Luftschnittstelle für die unidirektionale StepMan auf der anderen Seite. Diese beiden Netze müssen zusammenwachsen und mit dieser Konvergenz ganz neue Klassen von Endgeräten entstehen. Die unmittelbare Voraussetzung einer solchen Netzkonvergenz ist die Digitalisierung der Netze. Während dieser Schritt im Bereich des Internet selbstverständlich ist und beim Telefon auch weitestgehend vollzogen ist, hat die Umstellung auf Digitalfernsehen noch bis 2010 Zeit. Digital Video Broadcasting. Die Basis dafür bildet das Digital Video Broadcasting (DVB). Als DVB-T (Terrestrisch) soll der Fernsehempfang über die terrestrische Antenne auf einen digitalen Standard umgestellt werden. Dazu werden die Video-
40
Claudia Linnhoff-Popien
und Audio-Signale mittels MPEG2 komprimiert. Mittels Multiplex lassen sich dann anstelle eines Programms über einen TV-Kanal bis zu 4 Programme ausstrahlen. Bei DVB-C (Kabel) bzw. DVB-S (Satellit) wird sogar davon ausgegangen, bis zu 500 bzw. 1000 Programme gleichzeitig und in gleich bleibend guter Qualität zu übertragen. Daneben ist es möglich, Daten zu übertragen, Multimedia-Anwendungen und Internetinhalte. DVB-H ist die jüngste der DVB-Entwicklungen und zielt auf einen Empfang für batteriebetriebene, kleine Endgeräte wie z.B. PDAs und Handys ab. Problematisch ist dabei die Batterielebenszeit. Aus diesem Grund wird der Stromverbrauch dahingehend reduziert, dass ein Time Slicing eingeführt wird. Im Gegensatz zu den kontinuierlichen Datenübertragungen bei DVB-T verwendet DVB-H einen Mechanismus, bei dem Bursts von Daten zu gewissen Zeiten empfangen werden. Dieser Mechanismus wird IP Datacast Carousel genannt. Dabei ist der Receiver die meiste Zeit unaktiv und es wird mit Energieeinsparungen bis 90% gerechnet. Wichtig ist auch die Koexistenz von DVB-T und DVB-H. Multimedia Home Platform. Das Ziel der Multimedia Home Platform (MHP) besteht in der Realisierung einer Schnittstelle zwischen digitalem TV und einem Netz mit bidirektionalen Kommunikationsmöglichkeiten, so dass interaktive Dienste realisierbar werden. Da MHP aus dem DVB gewachsen ist, nutzt es die definierten DVB-Protokolle und ermöglicht den Herstellern die Entwicklung einheitlicher Endprodukte, die gleichermaßen für alle DVB-Zugangsnetze laufen. Die Fähigkeit zur Interaktion kann dabei entweder im TV-Gerät selbst implementiert werden, in einem PC oder aber in einer sogenannten Set-Top-Box.
2.5 Einige Grenzen und Potentiale Die Entwicklung der Hardware mobiler Endgeräte ist durch ein großes Problem gekennzeichnet – die Energieversorgung. Gerade sehr kleine Komponenten (Sensoren, Smart Technology) sind oft Wegwerfprodukte, sofern ihre Energiereserven erschöpft sind. Historisch gesehen ist bei der Energiebereitstellung in den vergangenen Jahren auch nur ein – im Verhältnis zur Prozessorleistung und zum Speicher – sehr geringer Fortschritt zu verzeichnen gewesen. Schließlich ist eine Verbesserung auf der Mensch/Maschine-Schnittstelle nötig. Hier blockieren unzureichende Nutzeroberflächen oft noch eine großflächige Verbreitung der Technik. Und im Bereich großer verteilter Systeme ist eine extreme Robustheit erforderlich: da sich die Fehleranfälligkeit aufaddiert, ist eine Zunahme der Komponentenanzahl gleichbedeutend mit einer größeren Ausfallrate.
3 Ubiquitous Computing – Machbarkeit und Grenzen
41
3. Mobile Netze Die Zukunft der Netze wird durch eine Fixed/Mobile-Convergence geprägt sein. Dabei kommt es zu einer Verschmelzung von Festnetz und Mobilfunk basierend auf dem Internet-Protokoll durch eine All-IP-Lösung. Langfristig wird auch die klassische Telefonie vollständig zugunsten einer Voice-over-IP-basierten Sprachkommunikation verschwinden. Die Marktsituation erfordert dabei die Nutzung aller Ressourcen und damit die Zusammenarbeit aller am Mobilen Internet Beteiligten. Laut Zukunftsforum des BMBF am 14./15. September 2004 in Bonn zum Thema „Mobiles Internet 2010“ wird das Internet in 5 Jahren zu mehr als 50% mobil sein. Der mobile Datenverkehr wird insbesondere bei der Steuerung von Maschinen (Machine-to-Machine Communication) rasant zunehmen. Ferner ist bereits bis 2010 eine totale Vernetzung aller Dienste über das Internet zu erwarten. Auch wenn All-IP-Netze mit Paketvermittlung und Qualitätsmanagement auch für den Mobilfunkbereich angestrebt werden, so ist z.Zt. noch unklar, ob dies bei Sprachdiensten wie GSM wirtschaftlich möglich sein wird. Aus dieser Gesamtentwicklung entkoppelt soll im folgenden der Schwerpunkt bei den Mobilen Netzen [Sau 04] liegen. Diese sollen zunächst in zwei Klassen unterteilt werden – die mobilen, infrastrukturbasierten Netze und die Ad-Hoc-Netze.
3.1 Mobile, infrastrukturbasierte Netze Die infrastrukturbasierten Netze zur Realisierung der Mobilkommunikation benötigen einen Zugangspunkt zum Netz. Dies kann ein Access Point sein, oder aber eine Basisstation bei zellularen Netzen. Aufgaben zur Verwaltung von Kommunikationsverbindungen werden zentral in eigens dafür vorgesehenen Komponenten wie zum Beispiel Servern und Routern erledigt. Derartige Netze haben sich in verschiedenen Generationen des Mobilfunks herausgebildet. Während Netze der 2. Generation durch GSM bekannt sind, ist mit der Paketvermittlung in GPRS bereits ein Schritt in Richtung der 3. Generation vollzogen. Man spricht auch von der 2.5-ten Generation. Mit wesentlich größeren Bandbreiten steht die 3. Generation dann mit UMTS an. Unabhängig von diesen klassischen Mobilfunknetzen ist mit WLAN ein mobiler Zugang zum klassischen Internet geschaffen worden.
3.2 Ad-Hoc-Netze Ad-Hoc-Netzen liegt die Philosophie zugrunde, dass es genügt, wenn Endgeräte in eine hinreichende Reichweite zueinander kommen und dann direkt miteinander
42
Claudia Linnhoff-Popien
kommunizieren können. Dabei verfügt keines der Endgeräte über eine ausgezeichnete Server-Funktionalität. Und es existiert auch keine Infrastruktur außerhalb der Endgeräte, die für die Kommunikation notwendig wäre. Dieser Ansatz ist sehr anspruchsvoll und beinhaltet verschiedene Problemstellungen, von denen nur einige erwähnt werden sollen: Wie erfolgt in hochmobilen Umgebungen ein dynamisches Routing? Wie kann eine Motivation zur Kooperation erfolgen, d.h. warum sollen sich Endgeräte bereit erklären, die Funktionalität eines Vermittlungsknotens für dritte einzunehmen? Wie kann Sicherheit in solchen AdHoc-Netzen gewährleistet werden? Wie können zentrale Funktionalitäten wie z.B. Verzeichnisdienste und die Dienstvermittlung realisiert werden? Ad-Hoc-Netze kommen in verschiedenen Ausprägungen zustande. So ist Bluetooth der klassische Vertreter der Ad-Hoc-Netze, bei dem in der Reichweite von Piconetzen, also etwa im Umkreis von 10 Metern, eine Ad-Hoc-Verbindung aufgebaut werden kann. Bei WLAN existiert ebenfalls ein Ad-Hoc-Modus. IrDA ist eine Möglichkeit, über Infrarot spontan miteinander zu kommunizieren. Und es seien die selbstorganisierenden Sensornetze genannt, die ebenfalls in die Klasse der Ad-HocNetze gehören.
3.3 Netze der nächsten Generation Netze der 4. Generation werden die infrastrukturbasierten und die Ad-Hoc-Netze vereinen und neben noch höheren Datenübertragungsraten und verbesserten Zugangsmöglichkeiten auch einen fließenden Übergang bestehender Kommunikationsverbindungen zwischen jeweils verfügbaren Übertragungsmedien ermöglichen. In diesem Sinne spricht man auch von Mobilität. Heutige Netze der 2. Generation bzw. in der Entstehung befindliche Netze der 3. Generation ermöglichen bereits die sogenannte Endgerätemobilität. Darunter versteht man einerseits die Lokalisierung Mobiler Objekte, z.B. durch Tracking oder Mobile IP. Andererseits umfasst Endgerätemobilität das sogenannte Handover Management, d.h. eine bestehende Kommunikationsverbindung kann aufrechterhalten werden, auch wenn der Mobile Host seinen Erreichbarkeitspunkt ändert, also z.B. die Funkzelle wechselt.
3 Ubiquitous Computing – Machbarkeit und Grenzen
43
Bild 2: Mobilität in Netzen der nächsten Generation
In Netzen, die nach der 3. Generation entstehen, müssen die Nutzeranforderungen an Mobilitätstypen stark erweitert werden. Einige der über die Endgerätemobilität hinausgehenden, visionären Typen der Mobilität sollen im folgenden in Anlehnung an [WaAb 2003] diskutiert werden (Bild 2): • Sitzungsmobilität: Ein Nutzer kann eine laufende Sitzung aufrechterhalten, auch wenn er das Endgerät wechselt, z.B. vom Handy zum PC. • Persönliche Mobilität: Ein Nutzer kann global über eine eindeutige ID erreichbar sein, egal, über welches autorisierte Endgerät er Netzzugang hat. • Dienstmobilität: Ein Nutzer kann personalisierte Dienste auch dann erreichen, wenn er anderen Dienst- oder Netzprovidern verbunden ist. • Modus Mobilität: Beim Verlassen eines z.B. Ad-Hoc-Netzes kann automatisch der Zugang auf ein infrastrukturbasiertes Netz vollzogen werden und umgekehrt. • Ad-Hoc-Mobilität: In Ad-Hoc-Netzen kann eine Kommunikation über Ketten Mobiler Hosts erfolgen, wobei diese das Routing automatisch mit erledigen. Zur Realisiertung dieser Formen von Mobilität ist ein denkbarer Ansatz im Session Initiation Protocol (SIP) [RSL 02] zu sehen. Dieses Protokoll der Anwendungsschicht ist denkbar für die Realisierung der Sitzungs-, Persönlichen und Dienstmobilität. Alternativ besteht die Möglichkeit, auf der IP-Schicht das Mobile IP zu verwenden, und zwar für die Modus- und Ad-Hoc-Mobilität.
44
Claudia Linnhoff-Popien
3.4 Einige Grenzen und Potentiale Der Markt der Telekommunikationsdienste ist hinter den Erwartungen geblieben. Die Euphorie, die zu Zeiten der Versteigerung von Frequenzbändern für UMTS noch überwältigend war, ist verebbt. Es fehlt die Dynamik, die bei der Entwicklung des Internet zu exponentiellen Wachstumsraten geführt hat. Woran liegt dies? Das Internet ist ein großes verteiltes System, das sich durch das Zusammenwirken der Endnutzer selbst entwickelt hat. Hinzugekommene Endknoten wurden gleichermaßen Vermittlungsknoten für weitere Anschlüsse. Ohne Regulierung kann jedermann seinen Inhalt in das Netz hineinstellen und andere Inhalte abrufen. Dieses Beispiel auf den Mobilfunk übertragen würde heißen, dass kleinste Firmen ihre Antennen aufstellen und damit viele Betreiber am Markt vorhanden sind, die im Wettbewerb stehen. Im Gegensatz dazu herrscht im Bereich der Mobilfunknetze jedoch eine strikte Regulierung. Ist die Deutsche Telekom heute auch nicht mehr alleiniger Anbieter, so ist der Markt der Übertragungsdienste doch immer noch auf 4 Anbieter beschränkt. Damit sind die klassischen infrastrukturbasierten Netze GSM, GPRS und UMTS von der Anzahl der Netzbetreiber her limitiert. Hinzu kommt, dass durch die Vergabe von Frequenzen die Einstiegskosten viel zu hoch geworden sind und kleinere Betreiber damit gar keine Möglichkeit haben, am Wettbewerb teilzunehmen. Freiheiten hinsichtlich der nutzbaren Frequenzen bestehen zwar im Bereich der WLAN-Netze, diese ermöglichen jedoch nur eine Kommunikation im Bereich kleinerer Reichweiten und verfügen bis heute lediglich über unzureichende Mechanismen zur Mobilitätsunterstützung.
4. Applikationen Ubiquitäre Szenarien zeichnen sich durch eine Vielzahl übereinander gelagerter Prozesse aus. Hierbei sind im Gegensatz zu den klassischen Verteilten Systemen verschiedene neue Eigenschaften zu beobachten.
4.1 Wissenskombination Betrachtet man Szenarien, in denen ein System selbständig auf Ereignisse seiner Umwelt reagieren kann, so kommt das Visionäre dadurch zustande, dass das System extrem mehr kann als die Summe der Bestandteile: eine ebenen- und plattformübergreifende, nahtlose Integration von Komponententechnologien in ein ganzheitlich arbeitendes System. Dazu sind wiederum Techniken der Kontextverarbeitung und Proaktivität nötig.
3 Ubiquitous Computing – Machbarkeit und Grenzen
45
4.2 Kontextadaptivität Unter Kontext versteht man Informationen, welche die Situation einer Entität charakterisieren [Dey 01]. Eine Entität ist dabei eine Person, ein Ort oder ein Objekt, welches bzgl. der Interaktion zwischen einem Benutzer und einer Anwendung als relevant einzuordnen ist. Kontextinformationen können sein: die Identität, Orts- und Zeitinformationen, Aktivitäten, Umgebungsvariablen wie z.B. Temperatur, Luftqualität oder Geräuschpegel und Ressourcen in der Nähe des Benutzers. Wenn man aus z.B. der Identität die E-mail-Adresse oder Telefonnummer des Nutzers ableitet, dann spricht man auch von sekundären Informationen im Gegensatz zu den primären Informationen des Nutzers. Kontextadaptivität zeichnet ein System aus, welches Kontextinformationen einsetzt, um eine bestimmte Funktionalität zu erfüllen. Ein kontextadaptives System interpretiert diese Informationen, um sich einer Situation anzupassen. Damit werden ganz neue Anwendungen ermöglicht. Kontextinformationen sind in ihrer Bedeutung örtlich und zeitlich eingeschränkt. D.h. am Ort und zum Zeitpunkt der Gewinnung von Kontextinformationen ist deren Relevanz am größten. Diese bezeichnet man auch als Prinzip der räumlichen und zeitlichen Nähe. Kontextadaptivität bezieht sich dabei sowohl auf die Dienstauswahl als auch auf die Dienstausführung. Dadurch wird eine personalisierte und situationsbezogene Bereitstellung von Diensten ermöglicht. Proaktivität. In derartigen Systemen sind im Gegensatz zu den klassischen pullDiensten die sog. push-Dienste von besonderer Bedeutung. Dabei ist das System permanent aktiv, um beim Auftreten eines Ereignisses einen Dienst auszulösen. Bezogen auf das Szenario erkennt das System selbständig und sehr früh, dass die am Gate vorhandene Bandbreite nicht ausreichen wird. Das System ergreift dann die Initiative, hier nach einer geeigneten Lösung zu suchen. Proaktivität bedeutet, dass bereits vor dem Eintreffen einer Gefahr, eines Engpasses oder eines in zeitlicher Hinsicht kritischen Punktes das Problem erkannt und geeignet darauf reagiert wird. In diesem Sinne ist Proaktivität immer mit der Realisierung von Push-Diensten verbunden. Als bedeutendster Kontext hat sich der Ort erwiesen. Sofern kontextsensitive Dienste sich primär auf den Ort als Kontext fokussieren, spricht man auch von ortsabhängigen Diensten oder Location Based Services. Ortung. Gemäß [Kü 05] kann Ortung entweder netz- oder endgerätebasiert erfolgen. Klassische Vertreter sind für die netzbasierte Ortung das GSM, bei dem die Infrastruktur des Netzes den aktuellen Aufenthaltsort berechnet. Das Endgerät ist hierbei
46
Claudia Linnhoff-Popien
passiv. Anders verhält es sich bei der Ortsbestimmung über GPS – hier ist das Endgerät aktiv, d.h. es misst die Signale der Satelliten und berechnet den aktuellen Aufenthaltsort des Nutzers auf der Basis dieser Messungen, die von der Infrastruktur bereitgestellt werden. Diese Verfahren sind primär für eine Positionsbestimmung außerhalb von Gebäuden und Räumen geeignet, sonst würde man eher auf den Einsatz von RFIDs oder WLAN zurückgreifen, sofern nicht Systeme für spezielle Anwendungsbereiche wie Active Badge oder Cricket angewendet werden.
Bild 3: Klassifikation von Ortungsmethodiken
Bei der Positionierungsmethodik unterscheidet man verschiedene Ansätze (Bild 3). Klassisch sind die Latteration und Angulation einzuordnen, bei denen auf der Basis einer Abstands- oder Winkelberechnung auf den Ort geschlossen wird. Hier sind relativ hohe Genauigkeiten zu erzielen. Im Gegensatz dazu gibt das Proximity Sensing nur eine Näherung der Ortsangabe durch die Aussage, in welcher Zelle sich der Nutzer befindet. Und schließlich ist noch das Pattern Matching zu erwähnen. Hierbei handelt es sich um einen sehr interessanten Ansatz, der aus zwei Stufen besteht. Zunächst wird an interessanten Orten die Empfangsstärke von verschiedenen Signalen in einer Tabelle als Vektor archiviert. Dann wird zwecks Positionsbestimmung die aktuelle Empfangsstärke der Signale vom Endgerät gemessen und mit den Tabelleneinträgen verglichen um durch Berechnung des minimalen
3 Ubiquitous Computing – Machbarkeit und Grenzen
47
Abstands zwischen gemessenen und gegebenen Werten auf den wahrscheinlichsten Aufenthaltsort zu schließen.
4.3 Schutz der Privatsphäre Vor dem Hintergrund einer immer größeren Informationserzeugung und Verbreitung – gerade im Bereich der Ortung von Objekten oder Personen – kommt dem Schutz der Privatsphäre eine große Bedeutung zu. Zu diesem Zweck sollen drei grundlegende Ansätze gemäß [Kü 05] betrachtet werden. Sichere Kommunikation. Sichere Kommunikationsprotokolle werden benötigt, um vertrauliche Kontextinformationen auf dem Übertragungsweg zu schützen. Dabei spielt insbesondere die Vertraulichkeit (Confidentiality) eine Rolle, d.h. der Schutz von Informationen gegenüber unautorisierten Parteien. Ferner ist die Integrität von Bedeutung, d.h. das Nicht-Ändern von Informationen durch unautorisierte Parteien, und die Authentifikation, d.h. es muss sichergestellt werden, dass auch nur diejenigen Parteien in einer Kommunikationsverbindung involviert sind, für die sie sich ausgeben. Privacy Policies. Unter einer Privacy Policy versteht man eine Aussage, dass gewisse Informationen nur unter Einhaltung gewisser Einschränkungen an andere Entitäten herausgegeben werden dürfen. Ein Beispiel einer Privacy Policy für Ortskoordinaten könnte sein: Mein Chef darf meine genauen Ortskoordinaten nur während der Arbeitszeit erfahren, ansonsten nur auf explizite Anfrage bei mir die Stadt erfahren, in der ich mich aufhalte. In diesem Sinne kann in Privacy Policies eine Restriktion bezüglich der die Information anfordernden Komponente bzw. Person vorgenommen werden, diese Restriktion kann mit dem anzufordernden Dienst verknüpft werden, und es können die Zeit, die Genauigkeit der Positionierung oder der Wunsch nach dem expliziten Einverständnis beim zu Lokalisierenden definiert bzw. eingeschränkt werden. In diesem Zusammenhang ist es notwendig, derartige Policies nutzerfreundlich spezifizieren, speichern und verarbeiten zu können. Anonymisierung. Schließlich besteht die Möglichkeit, personenbezogene Informationen nur anonymisiert herauszugeben. Dies beugt Missbrauch im Fall von nichtvertrauenswürdigen Instanzen vor. Eine Anonymisierung kann entweder darin bestehen, dass die wahre Identität eines zu lokalisierenden Ziels z.B. durch ein Pseudonym ersetzt wird. Oder aber es erfolgt eine Abstraktion vom Inhalt in dem Sinne, dass bei einer k-Anonymität ein so großer räumlicher oder zeitlicher Zielbereich angegeben wird, dass sich mindestens k Entitäten darin aufhalten.
4.4 Einige Grenzen und Potentiale Schließlich führt die momentane Kostenstruktur noch zu Hemmnissen der Entwicklung. Die Kosten für eine Datenübertragung über die Luftschnittstelle sind einfach
48
Claudia Linnhoff-Popien
noch zu hoch – oft entstehen 10 bis 20 mal so hohe Gebühren wie bei einer Nutzung des Festnetzes. In diesem Sinne fehlen auch noch die Killerapplikationen. Verschiedene Dienste sind denkbar, scheitern jedoch an den potentiell zu erwartenden Kosten für die mobile Datenübertragung. Beispielsweise das Tracken eines Teilnehmers ist mit der regelmäßigen Übertragung seines Standortes verbunden. Sofern diese Nachricht über eine SMS verschickt werden würde, käme es trotz sehr geringen Datenvolumens zu einem nicht unerheblichen Betrag. Und schließlich sind auch die Kontextinformationen noch nicht genügend ausgereift und genügend verbreitet.
5. Schlussbemerkungen Die Entwicklung Ubiquitärer Systeme ist durch den Gedanken der Konvergenz geprägt. Endgeräte wachsen zusammen, so dass über eine einzige Plattform theoretisch jeder Dienst realisierbar wird. Netze wachsen zusammen – und ganz neue Formen der Mobilität werden denkbar. Die entstehenden Systeme können basierend auf Wissenskombination, Proaktivität und Kontextabhängigkeit die Situation einer Entität von vornherein auswerten und intelligent darauf reagieren. Der personalisierte, maßgeschneiderte Dienst wird das Ziel künftiger Entwicklungen werden und als wünschenswerte Ausprägung die Vision „Anywhere, anyone at any time“ bereichern. Durch die Integration intelligenter Komponenten in unseren Alltag und die hinreichende Verbreitung dieser Technik eröffnen sich ganz neue Potentiale für Anwendungen, zwischen Menschen, zwischen Mensch und Maschine aber auch zwischen Maschinen. Diese müssen jedoch wirtschaftlich realisierbar und auch bezahlbar sein, damit eine großflächige Verbreitung ermöglicht wird.
[Dey 01] A. K. Dey: Understanding and Using Context. Personal and Ubiquitous Computing. Special Issue on Situated Interaction and Ubiquitous Computing 5, 1 (2001) [Eito 04] European Information Technology Observatory 2004, www.eito.com [HMNS 01] Uwe Hansmann, Lothar Merk, Martin Nicklous, Thomas Stober: Pervasive Computing Handbook, Springer 2001 [Kü 05] Axel Küpper: Location Based Services – Fundametals and Operation. Wiley, 2005 [RSL 02] SIP – Multimediale Dienste im Internet. Grundlagen, Architektur, Anwendungen. Dpunkt-Verlag, 2002 [Sau 04] Martin Sauter: Mobile Kommunikationssysteme, Vieweg 2004 [WaAb 03] Qi Wang, Mosa Ali Abu-Rgheff: Next-Generation Mobility Support. In: Communications Engineer, Feb. 2003
4 Looking ahead: Technology Visions Dr. Krishna Nathan IBM Research GmbH, Rüschlikon My theme today is what you have heard several times, information anywhere, anyplace, anytime on any device etc. What I am going to try and do is give you a little bit of an overview of the technologies I consider important. I will touch upon many of the themes discussed by the previous speakers but will cast them a little bit more in terms of their current state of evolution. The pervasive revolution is really about how the technology melds with user benefits. It is all nice to talk about technology, but at the end of the day the technology is only as useful as the extent to which it benefits us and helps us do the things that we do everyday. If you look at it from the technology perspective we are talking about all kinds of devices, some of which you have seen today. We keep seeing more and more devices with ever greater computing power that appear on the market place everyday. The infrastructure network is very important because without it this revolution or this vision that we are discussing will never come about. We all experience these issues in various forms. For example, think of the last time you were on a train, trying to have a conversation on your cell phone. You probably got cut off every twenty minutes or so. The infrastructure, the convergence of the different networks, is very important. Let us now look at the data that resides in multiple places. Such data can have different levels of access and authentication and you want these things to be integrated and the technology that allows you to do this. So, you need a means of integrating these different sources of data, although the profile may reside someplace else. For example, I may be in a hospital somewhere, whereas my records may be in Zurich. You need to have a means of getting these different pieces of data together. That is as much of a technological challenge as some of the other things we have talked about today. The benefits of data integration are probably easier for us to visualize. Regardless of our current location, we want to have access to data, be it mission-critical information or personal information. This seems like a reasonable request. You want to be able to do this whenever and wherever you wish, independent of whether a
50
Krishna Nathan
particular server happens to be up. The key issue is this hybrid notion, if you will, of matching our access ability with the specific things we wish to do with our data. I will start by giving a brief background of where the general field is going. Then I will talk about four separate topics. The first topic is smart devices and how they interconnect. I will give an example of how the way we do things today may change. The second topic is sensor-based applications, which are becoming more and more ubiquitous. Sensors are getting not only smaller and smaller but also increasingly powerful. Today sensor-based applications can do all sorts of things we could only dream about in the past. A few month ago, I spoke to a customer who wanted to install sensors into office building windows to measure very simple things such as temperature, wind-speed and the orientation of the sun to control the heating and airconditioning systems. But the number of sensors and the network architecture to install this kind of equipment in, say, a fifty-storey building in Manhattan is staggering. There are some truly interesting challenges associated with sensor-based applications of this kind. The third topic is multi-modal interaction. What is the use of increasingly sophisticated technology and its attendant benefits if you can’t interact with it in a convenient and practical manner? We are all familiar with the everyday frustrations encountered when using PCs and other common consumer devices, so we as an industry clearly have to make a great deal of progress in the area of multi-modal interaction. Fourth and finally, the issues of privacy and balancing of privacy concerns with the benefits of these technologies is crucial. I firmly believe that the uptake of these things will be severely limited if we as an industry and we as a society don’t address these issues adequately.
4 Looking ahead: Technology Visions
51
Fig. 1
Let me put this into context. There have been several discontinuities – or revolutions if you want to put it more dramatically – in terms of where technology and computing are going (Fig.1). The first one was clearly something that probably took place in the sixties with the revolution of the mainframe. People realized that a computer can be used to do a wide range of tasks in the back-office that really made sense and increased productivity. A computer was no longer some kind of a toy. I love that old forecast that PCs would never catch on in the home. Clearly the eighties and nineties proved the contrary by the tremendous growth in computing led by the power of a desktop and the whole multitude of applications that came along with it. Then you had the Internet revolution which consisted of leveraging entire infrastructures to increase productivity. The pervasive revolution appears to be the next step. What it entails is a much greater degree of connectivity and a much greater level of personalization in terms of what computing can do.
52
Krishna Nathan
Fig. 2
If you look at the birth of the Internet, it started off basically as a means of communication (Fig. 2). The first time, I used the Internet was to send e-mails at the university 20 years ago. The line was terribly slow. I remember there was this line between MIT and Stanford, and it was so slow that the only time you could really use it was sometime between 10.30 pm and 2 am. The initial use of the Internet sprang from the need for communication. Then it moved on to enable communication with machines, not just between people. The Internet suddenly made useful things such as servers available regardless of where you were. Today, there is hardly any direct human intervention on the Internet anymore; it is predominantly machine to machine.
4 Looking ahead: Technology Visions
53
Fig. 3
In the future we will witness a stage that looks like chaos in a sense (Fig. 3). You will have a multitude of devices -PDAs, cell-phones, household appliances, cars, machines, servers- communicating with a whole bunch of different applications for a whole world of different needs. The infrastructure itself has been evolving.
54
Krishna Nathan
Fig. 4
Let us take a closer look at some of these familiar, everyday devices (Fig. 4). Certainly the two foremost in many people’s lives are PDAs and cell phones, which are becoming more and more powerful and are being equipped with ever greater communication and processing capabilities. Now let’s look at sensors. They will make it easier to repair and maintain structures. In the future, for example, bridges will have built-in wear and strain sensors, so it will no longer be necessary to drill a hole into them to determine whether a portion needs maintenance. Appropriate sensors can be embedded in such devices. This is much farther from science-fiction and closer to reality than many people think. The real question is whether we have the infrastructure to deal with all this data, not whether we have the proper sensors for such purposes. Let us examine another potential application: sensors in automobile tires. The automobile industry has realized that the tires are actually the soul of the automobile. Whether you have an accident, whether it is where you have been, whether it is how fast you have gone, whether it is how many people you have in a car, the tires can sense it. It is really as we say where the rubber meets the road. It is really the point where you can determine a lot of information.
4 Looking ahead: Technology Visions
55
It is amazing if you sit down for twenty minutes and think about all the applications you could dream up by putting smarter sensors in a tire of a car. There is a whole range of sensors that will be appearing on the market place. There are various factors behind the development of these new sensors. First, there is, of course, yet another version of Moore’s Law, which states that the power and speed of computers will double every 18-24 months. There is also the fact that we can make these things increasingly smaller and cheaper. Every six months or so, products enter the market that are significantly superior to what was formerly state of the art. This is a fascinating topic in itself, but a deeper discussion is beyond scope of this presentation. There is something else happening which I think is important. Society and its attitudes toward the everyday use of technology are changing dramatically. Ten years ago, when someone was seen walking down the street talking on a cell phone people stared. Today it is accepted. I am not passing judgment on whether this is good or bad; it is simply different. Things have changed. This is just one example of how society -and not only the younger generation- is now much more willing to embrace new technologies, changes of work patterns, and many of the other facts of how we live and work differently today.
Fig. 5
56
Krishna Nathan
Let me turn to the topic of smart interconnected devices (Fig. 5). The main issue with regard to this is wireless connectivity. The explosion or the growth of the device market has simply been phenomenal. Even if the estimates are slightly exaggerated, the prospects are still impressive. We currently estimate that by 2005 there will be more than a trillion wireless enabled devices, including such things as RFID tags. The number of communicating data devices is expected to grow from about 2 billion to 20 billion in the space of five or six years, and will probably reach one trillion within another ten years or so. Bear in mind that this applies to devices we may not normally consider, such as toys, household appliances, automobiles, machines and so on. Clearly, these devices will increasingly become pervasive.
Fig. 6
As stated above infrastructure is very important because to make all these devices ubiquitous, pervasive, ambiant or whatever term you want to use, you depend on a network (Fig. 6). It is essential to be able to provide users with optimized connectivity regardless of their physical location. In other words, today’s users will typically be located somewhere within a wide area network, which is usually a cell
4 Looking ahead: Technology Visions
57
or a switched or a satellite-switched network where the user can move from one cell to another. Encompassed within the wide area network is the metropolitan area network, at the heart of which are newly emerging standards such as 802.16 or 802.20. At the next smaller level we have local area networks, which is a fairly familiar concept today. Within that is what I call personal area networks: Bluetooth is a good example of the kind of network limited to a proximity of three to ten meters. The point here is the fact that we need to go back and forth across these networks. We need to improve today’s situation, where for example although I can readily take my laptop with me, I still have to worry about whether I am connected to the appropriate network, whether I need to use my Bluetooth to talk to some other device etc. The process is currently anything but seamless, but it must become so in order for this vision of pervasive computing to truly become reality.
Fig. 7
The nature of the future networks will also change. They will become much more heterogeneous (Fig. 7). So, you can expect to see data, voice and multimedia carried over networks running IP and net protocols. And you can expect the Internet protocol to subsume some of these standards. Let us take today’s state of IP security as an example. In the early days, security was something that sat on top of IP. Now, SSL is part of the stack. They are part of the layers far below. We will see many of these things become part of IP because the applications we use will demand it. In
58
Krishna Nathan
other words, the heterogeneity of the applications will drive this change. We will reach the point where we will have self- configuring networks. It is precisely this combination of push and pull that makes progress happen.
Fig. 8
Let me give an example of how some of these concepts come together (Fig. 8). Imagine something which I will call a personal mobile hub. This example is from the field of health care, which is why I call it the Health Hub. Think of it essentially as something that acts as a bridge between a wide area network and the local area devices that are of personal use to you. In the context of health care let us consider a common device such as a blood pressure monitor, which can communicate via Bluetooth with a hub. In this example the hub is simply a cell phone.
4 Looking ahead: Technology Visions
59
Fig. 9
When the blood pressure monitor takes a reading, it transfers the data to an appropriate device (Fig. 9). That device can then take the data and transmit it in turn to a health care provider, who can either check for an alert, tell the patient to go to the doctor, instruct the patient to check his or her blood pressure every three days, et … This is the kind of connectivity I am talking about. Then we can go one step further and determine access issues, such as whether the doctor should have access to the patient’s records as well. The next time the patient walks into the doctor’s office he or she can see whether instructions to measure blood pressure have been carried out as directed and can advise the patient of any attendant problems this may have caused. I have described an infrastructure that allows connectivity. Not only can data be recorded from a given local incidence, in this case a very simple thing such as a blood pressure device, but it can also provide the basis for ongoing health treatment.
60
Krishna Nathan
Fig. 10
Another health care scenario involves monitoring medication compliance (Fig. 10). As our populations age, this is becoming an issue of great importance. One of the most common problems doctors have with elderly patients is that they fail to take medication as directed. A conceivably useful device would be a kind of pill box that monitors when the contents have been emptied. The device, of course, cannot tell wether the medication has actually been taken, unless a sensor were in fact implanted in the medication and tracked in the patient’s body. The idea, however, is clear: this is a system that automatically records a given event, thus allowing health care providers to monitor a patient’s status. It closes the loop between what is happening in an individual’s personal space and what needs to happen where the data reside.
4 Looking ahead: Technology Visions
61
Fig. 11
Sensor-based applications -recall the true example of the windows in the city building mentioned above- are already in demand today (Fig. 11). The reason why they are more and more popular is obviously because they allow real-time processes to be controlled remotely. That is the truly attractive aspect of sensor-based applications: They allow complex systems such as a heating system or traffic to be analyzed and controlled. What is more, sensors are becoming smaller and smaller, which in turn means that more and more of them can be used for a given function. This will become interesting in the context of self-organizing networks – ad hoc occurrences, networks that appear instantaneously at some desired location or ones that can be disconnected if, say, it is not desirable that an entire infrastructure should be occupied with recording IP addresses.
62
Krishna Nathan
Fig. 12
The items most of us are probably familiar with are RFID tags, which as you know stands for Radio Frequency Identification Tags (Fig. 12). There is a huge market for this thing. They are expected to replace bar codes by virtue of their vastly superior functionality. Compared to the figures of 2002, the market for RFID tags, including transponders to the actual devices, readers, software and services, is expected to have almost doubled by the end of 2005. The continued growth will be driven by two things: the physical cost, which is decreasing, and the transformation of the business process that benefit from them. RFIDs currently cost about 50 Cents each, but in order to be truly successful, the price will have to fall to about 5 Cents a piece.
4 Looking ahead: Technology Visions
63
Fig. 13
Let me provide another example of some of the complexities of some of these sensors (Fig. 13). This is a scenario I think many of us have encountered in some form or another. Consider a set of sensors that can monitor road conditions and advise drivers about the weather patterns, speed limits, etc. In fact there are set-top boxes that can be installed in a car to inform the driver when a given speed limit is being exceeded. The box has the pertinent map built in. Imagine also that traffic control center could send routing information directly to the boxes to inform drivers in real time of adverse traffic or road conditions. You can detect incidents that happen along this network and send emergency teams where you’d want to. You can see that the traffic has blocked you and the bus needs to take a different route. There is a whole set of scenarios which you could do just around traffic. These are reasonably practical applications that are currently dependent on what technology is capable of and what the infrastructure will support.
64
Krishna Nathan
Fig. 14
The problem once again comes down to the infrastructure (Fig. 14). How do you deal with something like this? You have a situation where you have a whole lot of sensors sending data from the edges of the network. This flood of data is sent to a server which has to deal with it. This can cause grave data aggregation problems, as in the example of the sensor-equipped windows. You have millions of sensors measuring a few parameters. This data must be processed and the server then sends a small amount of data back to the sensors. For example, when the millions of temperature sensors send in millions of readings, the server processes all this data and sends back instructions to the climate-control system to reduce the room temperature by 0.2 degrees.
4 Looking ahead: Technology Visions
65
Fig. 15
Therefore you need a sufficient amount of data aggregation and filtering to allow this process to be performed (Fig. 15). What will happen is a shift in the network traffic from something today, which is a kind of a web server/ client paradigm, to a process where a huge amount of data comes in from remote sensors and very little data is sent back by the server.
66
Krishna Nathan
Fig. 16
The traditional flow of network traffic will hence be inverted (Fig. 16). That means we need to find ways to deal with these issues. The logical way to do this is to start taking applications from the centre of the network and move them off to the edge of the network. This is a kind of the “edgification” process, if you will. So, we need to deploy part of the code at the edge of the network and then do some of the processing there in a very lightweight fashion, rather than aggregating this data on a central server.
4 Looking ahead: Technology Visions
67
Fig. 17
The next topic I want to touch on is that of interfaces (Fig. 17). This is very key. There has been an evolution from the old mainframe green screens to the PC and the window menu interfaces to more sophisticated Web interfaces which allow users to be more interactive, to a portal-based interfaces. This evolution has been driven by two things: the kinds of information that users are requesting and the kinds of information they have access to. We didn’t need Web portals back when we were on our mainframe and had only one application running. We have seen these changes in interfaces that alternate between visual composition and information integration because that is precisely what it is. Humans can only capture a limited number of multiple streams of information. How can this be integrated and visualized in order to be useful?
68
Krishna Nathan
Fig. 18
I will discuss a few familiar items here (Fig. 18). For example, there is this notion of smart environments that can track persons. There are systems that allow pointing and speech interactions. We have handwritten gestures and eyeball-tracking mechanisms that allow users to operate a PC without a mouse. You have 3D gestures and a whole range of multimodal interactions that make sense in certain environments. What I want to stress here is that there is no single solution for many of these things because the optimal solution is very much dependent on the given environment. One example of something we have been experimenting with at IBM Research is what we call the office of the future. It is sort of a play pen for a lot of these concepts. This office is customized to the specific user in some sense. As the occupant walks into the cubicle a little name plate is switched on that reads “John is in”, and maybe a light changes from blue to green. When John sits down on the chair, sensors register his presence and can adjust the temperature and even reposition the PC screen to his preferences. When he logs on a display tells some other entity that he is actually on the system. There is a whole range of things that you could imagine in such a personalized, customized environment. We can take this scenario even further. What John really wants is to make his entire office a screen, so he has projection capabilities that go beyond just the monitor in
4 Looking ahead: Technology Visions
69
front of him. The everywhere display can turn nearly every surface into a computer screen. This facilitates collaboration, especially if there are several persons in the same workspace. It is no longer necessary to huddle around a standard-sized screen. John can project anything anywhere: on the wall, the floor, the ceiling, etc. We refer to this idea of integrating the office environment as “furniture-project technology”. It gives users control over their environment and allows them to customize it to their individual preferences and to the task they are performing.
Fig. 19
Another interesting project has to do with automatic text translation (Fig. 19). There is no reason you couldn’t imagine being able to scan a text, send it over to a server and have it translated. This sort of pilot technology already exists today. It is merely a question of augmenting what is already available. Let us consider another example. Imagine you are in a city somewhere in front of a historical monument. Imagine being able to take a picture of it, send the image to a database and retrieve a file of information about the monument. This is another example of augmenting the current situation by using the infrastructure of something to which you have access.
70
Krishna Nathan
Fig. 20
The final thing I want to discuss here are the issues of privacy and data protection (Fig. 20). They are crucial because they offer important benefits but also have significant drawbacks. I mentioned RFID sensors above. Imagine having sensors in clothes that tell us when they need washing. Some people might find this useful. Maybe it would be a convenient thing if my closet were to tell me that a certain suit needed to be dry-cleaned. On the other hand, I wouldn’t want for you, the people sitting here, to be able to scan me and say, well Krishna hasn’t dry-cleaned this suit since 1994. It is not something that I would want to broadcast. Therefore we need to figure out a way to balance these two interests. I think this is really going to be a crucial issue because it could be taken to an extreme to monitor what people do and say, it could enable complete profiling. There is a need to balance this crucial issue, to determine where regulations should come in, where the industry should come in, where technology should come in. Technology is a significant part of it. A detailed description of all the technologies that exist today for protecting privacy, anonymity and so on is beyond the scope of this discussion. But I do think I would be remiss if I didn’t touch on this issue and state that it is going to be a key part of making the vision of pervasive computing possible and making it happens. We both in the industry and society have to figure out a solution.
Radio Frequency Identification (RFID)
Radio Frequency Identification (RFID)
71
5 RFID als erster Schritt der Integration von realer und virtueller Welt Prof. Dr. Elgar Fleisch Universität St.Gallen In Zukunft werden „smarte“ Objekte mit ihrer Umwelt kommunizieren, Informationen über diese sammeln und eigenständig Aktionen anstoßen. Dadurch ermöglichen sie eine bessere Integration von realer und virtueller Welt. Radio Frequency Identification (RFID)-Technologie ist ein erster Schritt in diese Richtung. Anwendungen, die auf RFID und anderen Technologien des Ubiquitous Computing basieren, bieten Unternehmen die Chance, ihre Prozesse zu verbessern, neue Produkte und Dienstleistungen zu entwickeln und Wachstumspotenziale zu erschließen. Lagerbestandsungenauigkeit, Diebstahl und Rückrufaktionen von Produkten – das sind nur einige Problemstellungen, die die betriebswirtschaftliche Informationsverarbeitung trotz großer Fortschritte in den letzten Jahrzehnten noch nicht lösen konnte. Der gemeinsame Nenner dieser Probleme ist die bis heute mangelhafte Integration zwischen der realen, physischen Welt und ihrer digitalen Abbildung in der Welt der Informationssysteme und des Internets. Dieses Problemstellung führte um 2000 zur Gründung von Initiativen wie dem Auto-ID Center am MIT und dem M-Lab an der Universität St. Gallen und der ETH Zürich. Unternehmen wie Wal-Mart, Tesco, Gillette, Metro, Novartis und Volkswagen haben sich an diesen Projekten aktiv beteiligt. Sie wollten damit die Grundlagen für die Lösung obiger Probleme auf Basis des Ubiquitous Computing (UbiComp) schaffen. Heute, 2004, scheinen die Ankündigungen der großen Einzelhändler, Industrie-, Konsumgüterund Softwarehersteller dieser Welt, von USA über Europa bis Japan und China, die nächste Generation der betriebswirtschaftlichen Informationsverarbeitung und den Wandel zum Echtzeitunternehmen einzuläuten. Potenziale ergeben sich für Unternehmen im Supply Chain Management, im Customer Relationship Management und im Produktlebenszyklusmanagement. Folgende Beispiele beschreiben Anwendungen, die bereits heute technisch umsetzbar sind: Wenn sich Produkte selbst identifizieren, kann ein großer Teil des Wareneingangs und Warenausgangs (Buchung und Kontrolle) automatisiert werden. Jede Lagerbewegung, sei sie betriebswirtschaftlich motiviert oder nicht (Diebstahl), kann in Echtzeit im Lagerverwaltungssystem abgebildet werden. Kaufhof und Gerry Weber arbeiten an einer Lösung, bei der Kleidungsstücke mit wieder verwendbaren Radio
74
Elgar Fleisch
Frequency Identification (RFID)-Transpondern ausgestattet werden, um die Lieferungskontrolle zu automatisieren und die bisher verwendeten Diebstahlsicherungsetiketten zu ersetzen. Ein eindeutiger Identifikator, kombiniert mit einer eindeutigen und vor allem kaum fälschbaren Abbildung jedes einzelnen physischen Objekts im Internet, kann die Fälschungssicherheit, zum Beispiel von Medikamenten, erheblich erhöhen. In der Pharmaindustrie ist die US-amerikanische Food and Drug Administration (FDA) einer der Befürworter der Einführung von RFID auf Medikamentenverpackungen. Die FDA rechnet mit einer weiten Verbreitung von RFID-Technologie bis zum Jahre 2007. Bei der Entwicklung neuer Medikamente können UbiComp-Technologien im Rahmen von klinischen Tests eingesetzt werden. So wird die Einnahme der Medikamente durch den Patienten automatisch aufgezeichnet. Gleichzeitig werden einige Körperparameter (Puls, Temperatur, Blutdruck, …) erhoben. Vergisst der Patient die Medikamenteneinnahme, wird er automatisch daran erinnert. Falls kritische Werte beim Patienten auftreten, wird eine Nachricht generiert und an einen Arzt weitergeleitet. Bei Notfällen ist der Patient auf Basis der Mobilfunkzelle, in der er sich befindet, lokalisierbar. In regelmäßigen Abständen oder bei Abweichungen von den Normalwerten werden die Daten an die Firma, die den klinischen Test durchführt, weitergeleitet. Die übertragenen Daten werden zentral ausgewertet und können helfen, den Zeitraum für die Medikamentenentwicklung zu verkürzen. UbiComp ermöglicht die kontinuierliche und aktuelle Erfassung der Produkthistorie über sämtliche Produktlebensphasen bis zur Verschrottung des Produktes. Die zu wartenden bzw. reparierenden Produkte können kostengünstig, schnell und weltweit eindeutig identifiziert werden. Sämtliche Informationen über die Wartung und Reparatur des Produktes sind sehr einfach abrufbar. Der Identifikator eines Produkts verweist auf Informationen zur gesetzeskonformen Wiederverwendung bzw. Entsorgung, auf Demontagepläne, Materialbeschaffenheit, Rücknahmestellen oder Entsorgungsorte.
Integration der Realität Bis heute konzentrieren sich Forschung und Praxis der betrieblichen Informationsverarbeitung primär auf die Vernetzung von Unternehmen, Prozessen, Informationssystemen und Menschen. Sie verfolgen das Ziel, mit wachsenden Integrationsbereichen immer mehr Medienbrüche zu eliminieren. Ein Beispiel für einen Medienbruch ist die mehrfache Erfassung eines Auftrags in unterschiedlichen betrieblichen Informationssystemen innerhalb einer Wertschöpfungskette. Ein Medienbruch ist vergleichbar mit einem fehlenden Glied einer digitalen Informati-
5 RFID als erster Schritt der Integration von realer und virtueller Welt
75
onskette und ist Mitursache für Langsamkeit, Intransparenz, Fehleranfälligkeit etc. inner- und überbetrieblicher Prozesse. UbiComp-Technologien haben das Potenzial, den Medienbruch zwischen physischen Prozessen und deren Informationsverarbeitung zu überwinden. Sie ermöglichen eine vollautomatisierbare Maschine-Maschine-Beziehung zwischen realen Dingen und Informationssystemen, indem sie ersteren ein Stück „digitaler Intelligenz“ hinzufügen. Sie helfen, die Kosten der Abbildung realer Ressourcen und Vorgänge in Informationssystemen zu reduzieren (Bild 1), sie übernehmen die Aufgaben des Mediators zwischen realer und virtueller Welt. Physische Ressourcen können ohne menschliche Intervention mit den unternehmensinternen und -externen Rechnernetzwerken kommunizieren.
Bild 1: Integration von realer und virtueller Welt
Aus der Perspektive des sich erweiternden Integrationsbereichs ist UbiComp ein logischer nächster Entwicklungsschritt der betrieblichen Informationsverarbeitung. Während integrierte Informationssysteme und E-Business-Systeme die Verknüpfung von immer mehr Applikationen und Datenbanken verfolgen, strebt UbiComp die Integration dieser Applikationen und Datenbanken mit der realen betrieblichen Umgebung wie etwa dem Supermarktregal oder dem einzelnen Industriecontainer an.
76
Elgar Fleisch
Digitalisierung des Managementregelkreises Die Verschmelzung der realen mit der virtuellen Welt erlaubt das Schließen des digitalen Managementregelkreises, wie im Folgenden am Modell eines Echtzeitunternehmens beschrieben. In idealtypischen Echtzeitunternehmen stehen Informationen unmittelbar nach ihrer Entstehung am so genannten „Point-of-Creation“ (POC) sowie an den Orten ihrer Verwendung bzw. „Point-of-Action“ (POA) zur Verfügung (Fleisch und Österle 2003). Sowohl POC als auch POA können dabei unterschiedlichen Organisationseinheiten zugeordnet sein und dementsprechend inner- und überbetriebliche Informationsflüsse bedingen. Der POC kann beispielsweise die Scannerkasse eines Einzelhändlers sein, die dazugehörigen POA sind neben der Scannerkasse das interne Warenwirtschafts- und Logistiksystem sowie das überbetriebliche Beschaffungsund Prognosesystem, das den Einzelhändler mit seinen Lieferanten verbindet. Wenn ein Verkäufer eine Packung Gummiringe über den Verkaufstisch schiebt oder wenn sich auf einer der Autobahnen im Raum Stuttgart ein Stau bildet, dann generieren die Ereignisse Informationen, die vor ihrer Weiterverarbeitung in Informationssystemen digital erfasst werden müssen. Wie am Beispiel des Einzelhandels ersichtlich, lassen sich in Wertschöpfungsketten zahlreiche POC und POA identifizieren – immer genau dann, wenn eine Information entsteht oder verwendet wird. Die Wahl der POC und POA orientiert sich an der Domäne, die es zu steuern gilt – in der Mess- und Regeltechnik Regelstrecke genannt. In Frage kommen hier einzelne Aufgaben, interne wie überbetriebliche Prozesse, Unternehmensbereiche, Wertschöpfungsketten und Unternehmensnetzwerke. Auf sie wirken laufend Störgrößen wie Maschinenausfälle, Schwund, Qualitäts- und Nachfrageschwankungen, welche die Regelgrößen (Ist-Größen) wie beispielsweise Prozess- oder Unternehmenskennzahlen beeinflussen und ein zeitnahes Management verlangen. Am POA vergleicht der Entscheider (Regler) Soll-Größen (Führungsgrößen) mit Ist-Größen und definiert Maßnahmen (Stellgrößen), welche die Regelstrecke so beeinflussen sollen, dass die Regelgrößen den Zielvorgaben besser entsprechen. Jede Unterbrechung des Regelkreises führt zu Verzögerungen und zusätzlichen Störgrößen. Prozesse, Unternehmen und Unternehmensnetzwerke sind dann nicht in Echtzeit führbar. UbiComp-Technologien, insbesondere Automatische Identifikation, Sensorik und Aktuatorik, sind die technischen Grundlagen zur Digitalisierung und Automatisation von POC und POA. Sie sind notwendige Voraussetzungen zur Schaffung von geschlossenen digitalen Managementregelkreisen.
5 RFID als erster Schritt der Integration von realer und virtueller Welt
77
Die durchgängige Digitalisierung des Regelkreises ermöglicht die Vollautomation eines Regelzyklus. Bei gegebener Infrastruktur sind die Kosten eines solchen Zyklus, beispielsweise einer automatischen Regalinventur, in der Regal und Produkte miteinander kommunizieren, niedriger als bei einer manuellen Inventur. Diese Kostendifferenz führt nicht nur zu einer Substitution des manuellen Regelkreises durch einen automatisierten Regelkreis, sondern auf Grund der Nachfrageelastizität auch zu einem Anstieg an kostengünstigen Prüfzyklen (Malone and Crowston 1994). Während die kostenintensive manuelle Inventur je nach Anwendungsfall nur einmal pro Periode (z. B. Tag, Woche oder Jahr) stattfindet, kann die automatische Inventur laufend erfolgen. UbiComp-Lösungen übernehmen in der Regel kostenintensive Aufgaben an der Schnittstelle zwischen Informationssystemen und der realen Welt in einer Infrastruktur, die in der Lage sein soll, dieselben Aufgaben vollautomatisch und damit kostengünstiger und laufend durchzuführen. Solche Schnittstellenaufgaben sind Teil zahlreicher Prozesse, welche die reale Welt, also Lebewesen und materielle Dinge, einbeziehen. Sie sind häufig Daueraufgaben, die, wenn auch meistens im Hintergrund, ständig aktiv sind. Ihre Durchführung ist dementsprechend aufwändig.
Steigerung der Datenqualität Die Vision des Echtzeitunternehmens ist noch lange nicht erreicht (vgl. Fleisch und Österle 2003). Unternehmen arbeiten immer noch mit hohen Ineffizienzen aufgrund schlechter Datenqualität. Beispiele geben die eingangs erwähnte schlechte Produktverfügbarkeit, unverkäufliche Ware, Diebstahl und Fälschungen. Wenn ein Einzelhändler genau wüsste, welche Produkte sich auf dem Verkaufsregal befinden und welche im filialeigenen Lager, könnte er seine Produktverfügbarkeit deutlich erhöhen (IBM 2002). Warum also sammeln Einzelhändler nicht einfach diese Daten oder leiten sie aus den Barcode-basierten Kassensystemen ab? Die Antwort auf dieser Frage geht Hand in Hand mit dem oben skizzierten Integrationsproblem: Auf der Basis heutiger Technologie ist die Vollerhebung von Daten aus der realen Welt in vielen Fällen zu teuer. Daher entwickelten Unternehmen Methoden zum Sammeln und Verarbeiten von Daten, für die Teilerhebungen bzw. Stichproben ausreichen. Weil die zuverlässige Vollerhebung eines Inventars teuer und zeitaufwändig ist, findet die Inventur eben nur einmal pro Jahr statt. Oder weil die vollständige Überprüfung der ein- bzw. ausgehenden Lieferungen gegen die Daten in den entsprechenden Informationssystemen zu kostenintensiv ist, führen Unternehmen solche Checks auf statistischer Basis durch. Die hohen Integrationskosten resultieren unweigerlich in Entscheidungen am POA, die auf Daten mit niedriger Qualität aufbauen. Entscheider am POA stützen sich
78
Elgar Fleisch
heute stark auf Statistik, die ihre Aussagen aus der Verarbeitung historischer Daten gewinnt.
Reorganisation controllingintensiver Prozesse Unternehmen setzen zusätzliche Sensoren und Aktuatoren dort ein, wo der Nutzen aus höherer Datenqualität die entstehenden Kosten übersteigt. Dies gilt für steuerungs- bzw. controllingintensive Prozesse. Auto-ID-Technologien, Embedded Systems und Sensornetzwerke werden nicht angewendet, wenn die heute bekannten und sehr kosteneffizient arbeitenden statistischen Methoden Daten mit hinreichender Qualität liefern können bzw. wenn die Schließung des digitalen Managementregelkreises keinen Zusatzwert generiert. Betriebswirtschaftliche Effekte der zusätzlichen Daten aus UbiComp-Anwendungen haben Auswirkungen auf die Ebenen Prozess, Produkt / Dienstleistung und Vertrag. Die wesentlichen Nutzenpotenziale auf der Prozessebene liegen im Bereich der operativen Kosten, der Geschwindigkeit und der Prozessqualität und -sicherheit. Auf den Ebenen Produkt / Dienstleistung und Vertrag / Kundenbeziehung verschieben sich die Nutzenpotenziale in Richtung der Generierung zusätzlicher Umsätze. UbiComp-Anwendungen bieten Unternehmen also nicht nur Rationalisierungspotentiale, sondern auch neue Wachstumschancen.
Referenzen Fleisch E, Österle H (2003): Auf dem Weg zum Echtzeitunternehmen. In: Alt R, Österle H (Hrsg): Real-time Business. Springer, Berlin et al. IBM (2002): Focus on Retail. Applying Auto-ID to Improve Product Availability at the Retail Shelf. White Paper. Auto-ID Center Malone TW, Crowston, K (1994): The Interdisciplinary Study of Coordination. ACM Computing Surveys. Vol 26 No 1, S. 87-119
6 RFID in der Logistik Dr. Gerrit Wiegmink Deutsche Post AG, Bonn Ich freue mich, dass ich vom Münchner Kreis die Einladung erhalten habe, hier etwas zum Thema „RFID in der Logistik“ zu sagen. Ich glaube, ich kann der Diskussion vielleicht einen neuen Blickwinkel beisteuern, und zwar im Unterschied zur Sicht der Wissenschaft oder der eines Unternehmens, das RFID produziert und verkaufen will, den Blickwinkel eines Nutzers, der überlegen muss, ob die Einführung einer neuen Technologie sich wirklich ganz konkret lohnt und der auch schauen muss, dass solche Projekte dann im Detail funktionieren. Was möchte ich Ihnen heute zeigen? Zunächst eine kurze Einführung zum Unternehmen Deutsche Post World Net insgesamt, damit Sie sich orientieren können und auch den kommerziellen Kontext verstehen können. Dann möchte ich erklären, weshalb wir uns für RFID interessieren und die folgenden Fragen ansprechen: Was sind die Anwendungsmöglichkeiten von RFID speziell im Feld der Logistik? Welche Erfahrungen haben wir selbst schon gemacht, und wie schätzen wir diese Technologie zukünftig ein? Wie wollen wir uns engagieren? Was glauben wir, was da in den nächsten Jahren passieren wird?
Bild 1
80
Gerrit Wiegmink
Die Deutsche Post World Net hat die vier Unternehmensbereiche Brief, Express, Logistik und Finanzdienstleistungen mit den drei Marken „Deutsche Post“ für Brief Deutschland, „DHL“ für das gesamte Paket-, Express- und Logistikgeschäft und „Postbank“ (Bild 1). Bei der Postbank ist RFID im Moment kein so großes Thema, sondern eher in den Bereichen Brief, Express und Logistik. Damit Sie sich über die Größenordnungen eine Vorstellung machen können, ein paar Zahlen zum Bereich BRIEF: Mit rund 81000 Zustellern, 13000 Filialen, 82 nationalen hochtechnisierten Briefzentren, wo unsere Sendungen sortiert werden, 3500 Auslieferungsstützpunkten und dem internationalen Postzentrum am Frankfurter Flughafen verfügt die Deutsche Post über ein extrem leistungsstarkes Logistiksystem in Deutschland. Zwischen diesen Standorten werden täglich 70 Millionen Sendungen transportiert. Die Brieflaufzeit von einem Tag innerhalb Deutschlands wird ständig kontrolliert. Diese Laufzeitmessungen sind ein sehr interessantes Anwendungsfeld für RFID. Unter der Marke „DHL“ bieten wir Kompetenz in Express-, Luft- und Seefracht, sowie spezielle Logistiklösungen (Bild 2). Insgesamt verbindet das Unternehmen mehr als 120000 Zielorte in 220 Ländern mit einem Netzwerk von weltweit 75000 Fahrzeugen, 450 Hubs, Lagerhäudern und Terminals, 5000 Büros und 160000 Mitarbeitern. Bei dem Bereich DHL haben wir vier Leistungsfelder. Dazu kommt seit kurzem DHL Global Mail, das die internationale Briefpost abdeckt.
Bild 2
6 RFID in der Logistik
81
Was ist nun eigentlich RFID (Bild 3)? Ich stelle es mir manchmal ganz vereinfacht so vor, wie diese kleinen gelben Haft-Zettel fürs Büro, die Sie sicher kennen. Man kann sie irgendwo ankleben, etwas darauf schreiben, ggf. auch wieder ausradieren, noch einmal ändern. Auf englisch nennt man solche Aufkleber auch „tags“, und sie sind von der Grundfunktion schon ähnlich einem RFID-tag. Der wesentliche Unterschied ist, dass Sie auf ein geeignetes RFID-tag quasi wie durch Zauberhand schreiben und das Geschriebene wieder weglöschen können, ohne dass man es überhaupt vor Augen hat, ohne Berührung, auf verschiedene Entfernungen und ohne auf die räumliche Orientierung achten zu müssen. Das liegt daran, dass Schreiben und Lesen hier durch für Menschen nicht wahrnehmbare Funkwellen vermittelt werden. RFID ist eine Methode, Stücke automatisch zu identifizieren. Zum leichteren Verständnis kann es als verbesserter Barcode angesehen werden – aber es bietet zusätzlichen Wert aufgrund seiner spezifischen technischen Eigenschaften. Eine einfache RFID-Anwendung beruht auf Transpondern, das sind zumeist kleine Chips verbunden mit einer spiralförmigen, flachen Antenne, und den davon getrennten Leseantennen („Reader“). Transponder werden mittels Radiowellen gelesen oder beschrieben, die von der Leser-Antenne emittiert werden. Diese Wellen können den Transponder auch mit der für seinen Prozessor in diesem Moment nötigen Energie versorgen. Die Information des Transponders wird dann in äußeren IT-Systemen gespeichert und weiterverwendet. Es gibt sehr viele unterschiedliche Arten von Transpondern.
Bild 3
82
Gerrit Wiegmink
Die prinzipiellen Aufgaben eines Anwendungsfalles kann man fast immer auch auf einer technologisch tiefer liegenden Ebene lösen. Man muß abwägen, ob man einfachere Mittel, die zur Verfügung stehen, unter Umständen genauso gut, billiger oder günstiger einsetzen kann. Auch innerhalb der RFID-Technologie ist dies jeweils zu betrachten. Die ganz simplen Transponder enthalten einfach eine Nummer, die dann nie mehr verändert werden kann. Das ist für manche Anwendungen schon ausreichend. Wir finden aber eine ganz weite Vielfalt an RFID-Produkten für alles, was man sich vielleicht noch mehr an Speicherplatz, an Intelligenz oder an eingebauten Sensoren wünschen können. Dies beeinflusst dann natürlich jeweils auch den Preis, zu dem Sie solche Dinge haben können. Der Preis schwankt. Jeder hat da seine eigenen Informationen für die Größenordnung. Ich denke, eine realistische Preisspannbreite liegt zur Zeit zwischen 10 Cent für ganz einfache, passive Transponder und ca. 40 Euro für aktive Transponder mit großen Reichweiten, die man in manchen Kontexten benutzen muss. Über die zukünftige Entwicklung dieser Preise will ich lieber keine Prognose machen. Seit vielen Jahren schon heißt es, dass Transponder in ein paar Jahren fast gar nichts mehr kosten werden, was natürlich mit der Gesamtnachfrage in der Industrie zusammenhängt. Die Nachfrage hat sich bislang nicht ganz so entwickelt, wie das vor einigen Jahren vorhergesagt worden ist. Was sind nun eigentlich die spezifischen Eigenschaften, die für manche Logistikprozesse diese Technik überhaupt erst interessant machen (Bild 4)? Das ist hauptsächlich einmal, dass man die RFID- Transponder identifizieren kann, unabhängig davon, ob man sie vor ein Lesegerät hält, ob ein Hindernis dazwischen steht und welche Position und Ausrichtung sie haben. Die zweite Eigenschaft, auch interessant, ist, dass man sehr viele zu gleicher Zeit lesen kann. Das ist die Grundlage für die Ihnen vielleicht bekannte Einkaufskassenvision, in der man den Einkaufswagen einfach durch ein Tor schiebt, und schon sind beispielsweise alle 100 vorhandenen Artikel registriert. An dieser Stelle schon einmal ein kurzer Hinweis: Bei allen automatischen Lesungen gibt es sogenannte Lese- und Fehlerraten, d.h. was die Technik liest, stimmt zu 95% oder 99,9 %, aber nicht notwendigerweise zu 100 %. Wenn Sie sich das in einer Registrierkassenanwendung vorstellen, ist es schon ein erhebliches Risiko, wenn Sie in der Tendenz von 100 Artikeln einen nicht erwischen. Denn dann können Sie schon 1 % Umsatzverlust haben, und wenn der übersehene Artikel gerade der teuerste war, noch mehr. Man muss stets darauf achten, dass einem solche ganz normalen technischen Begrenzungen keinen Strich durch die Rechnung machen.
6 RFID in der Logistik
83
Bild 4
Von Vorteil sein können auch Unempfindlichkeit, Robustheit gegenüber etwas härteren Umweltbedingungen, wie man sie durchaus auf Laderampen oder in Häfen vorfindet. Wenn man passive Transponder ohne eigene Energieversorgung verwendet, können diese auch sehr lange Lebensdauern erreichen. Und Sie haben die Möglichkeit, andere Sensoren, z.B. zur Temperaturkontrolle, mit den Transpondern zu verbinden. Daraus ergeben sich dann die hauptsächlichen Nutzendimensionen ähnlich wie fast überall im Geschäftsleben: Kostensenkung, Qualitätsverbesserung, neue Produktmöglichkeiten. Zum Beispiel kann man in gewissen Prozessen Kosten reduzieren, weil man Arbeitsaufwände einspart. Niemand muss mehr manuell scannen, oder suchen, sondern das geht automatisch. Als Zielvorstellung findet man häufig das Stichwort „Total Asset Visibility“ (Bild 5). Das bedeutet, in Echtzeit und mit Historie immer zu wissen: welches Stück ist wo, zu welcher Zeit und was geschieht damit unter welchen Bedingungen. Ob dies in dieser Absolutheit immer ökonomisch sinnvoll ist, ist zweifelhaft. Die Vision verspricht jedoch idealerweise viele Vorteile entlang der gesamten Versorgungskette (Supply Chain): bessere Prozessschnittstellen, minimale Lagermengen, optimale Zusammenarbeit der Partner in einer Supply Chain, kein Verlust mehr, kein Schwund, stets rechtzeitige Nachbestellung, Verfolgung der Güter und vieles andere mehr.
84
Gerrit Wiegmink
Bild 5
Ich habe Total Asset Visibility auf Deutsch einmal mit „Totaler Durchblick“ übersetzt. Ein wenig klingt hier „totaler Durchgriff“ an, was auch auf ein Problem hinweisen soll. Es stellt sich nämlich die Frage, inwieweit diese angestrebte Überwachung im weitesten Sinne freiheitseinschränkend ist. In unserem Feld, der Logistik, ist das praktisch nicht so kritisch, weil wir hier nicht von personenbezogenen, sondern von verschiedenen güterbezogenen Daten reden. Dennoch muss auch dieser Aspekt durchdacht werden. Schauen wir uns einmal eine solche Versorgungskette an (Bild 6). Die typischen Wertschöpfungsteile oder Segmente der Kette sind die folgenden: Zunächst erfolgt der Eingangstransport, wo Rohstoffe oder Vorstufen in eine Fabrik kommen und dort zielgerichtet in den Produktionsprozess gebracht werden müssen. Danach wird produziert, die Produkte werden verschickt und tranportiert. Je nachdem, wie stark das Produkt in der Fläche gestreut wird, brauchen Sie noch Zwischenstufen, z.B. Sortierzentren, bis das Produkt dann schließlich beim Einzelhandel, der es an die Verbraucher gibt, oder direkt beim Verbraucher anlangt; etwa in Ihrem Hausbriefkasten, wenn es sich um Briefe handelt. Die allgemeine Idee von RFID – genauer: automatischer Identifikation, hier realisiert durch RFID – ist, einen ganz übergreifenden gemeinsamen Kennzeichner für alle Versande und Waren zu haben. Das würde bedeuten, dass man sehr viele Kontrollpunkte einführen kann, an denen man sehen kann, ob alles nach Plan läuft.
6 RFID in der Logistik
85
Bild 6
In den letzten Jahren und Monaten haben viele global operierende Unternehmen begonnen, RFID an verschiedenen Stellen der Supply Chain einzusetzen, zu testen und zu bewerten. Ein Beispiel ist die Metro AG mit dem Future Store in Rheinberg. Dort legt man den größten Wert darauf, dass man die Wareneingangskontrolle erleichtern kann und man nicht mehr Paletten auflösen muss, um jedes Stück einzeln zu scannen. Sie haben vielleicht schon von Wal-Mart gehört, wo allen Lieferanten vorgeschrieben wird, die angelieferten Waren auf gewisse Weise mit RFID auszuzeichnen. Bei Nokia wiederum besteht das Problem, dass beim Versand Telefone verloren gehen können, was natürlich auch das Problem des jeweiligen Spediteurs oder Logistikers ist. Viele haben ein Interesse daran, diese Prozesse zu verbessern. Wir haben uns bei Deutsche Post World Net überlegt, wie man die verschiedenen Anwendungsfelder klassifizieren kann, um schnell und leicht die richtigen Einsatzfelder für RFID zu sehen. Es gibt drei Hauptanwendungsfelder (Bild 7). Bei der Flusskontrolle geht es darum, immer wieder festzustellen, ob derselbe Gegenstand beispielsweise nach einer halben Stunde an einer anderen Stelle angekommen ist. Hier hat man den Hauptvorteil, dass es in vielen Situationen billiger ist, RFID zu benutzen als einen Barcode zu scannen. Das kann man zum Beispiel anwenden, wenn es um track&trace geht. Populäre Beispiele sind die Auslieferung von Paketen oder Einschreibbriefen oder geschlossene Kreisläufe von Mehrwegbehältern.
86
Gerrit Wiegmink
Das zweite Anwendungsfeld ist der Abgleich, bei dem es darum geht, dass die verschiedenen Verpackungseinheiten, die ineinander geschachtelt sind, kontrolliert werden können, ohne sie zu öffnen. Man erfährt den Inhalt eines Transportes oder kontrolliert eine Kommissionierung. Wenn Ladungen durch ein Hangartor gebracht werden, kann man mit RFID ggf. einen Kontrollpunkt einrichten, der z.B. mit Barcodes nicht möglich gewesen wäre, weil eine Vereinzelung der Stücke oder zuviel manuelle Arbeit nötig würde. Ein Beispiel aus der Postwelt: In den Briefzentren werden die Behälter mit den Briefen für verschiedene Städte in Behälterwagen kommissioniert. Wenn Sie dann dummerweise so einen Wagen in den falschen Lastwagen schieben, der in eine andere Stadt fährt, werden sich diese Sendungen vermutlich einen Tag verspäten. Wenn Sie den Fehler aber verhindern können , weil am Verladetor ein Signal ertönt und meldet, dass dies der falsche Laster ist, heißt das im Endeffekt: Sicherung der Laufzeitqualität. Der dritte Punkt ist natürlich Bestandserfassung. Eine wirklich ständige Inventur wird möglich.
Bild 7
6 RFID in der Logistik
87
Man kann diese drei Anwendungsfelder, Bestandserfassung, Abgleich und Flusskontrolle an den verschiedenen Stellen der Versorgungskette gut wieder finden (Bild 8).
Bild 8
Die physische Versorgungskette kann im Endeffekt von einer Art immaterieller Informationskette begleitet werden, wobei die verschiedenen Anwendungsfelder in ihrem Zusammenwirken die ganze Kette verbessern. Man sieht hier natürlich auch schon, dass sich effektive Standards herausbilden müssen, denn wesentlicher Nutzen entsteht in letzter Konsequenz nur dann, wenn alle Beteiligten an der Information teilhaben können. Das bedeutet zuerst einmal, dass die Transponder auf den Sendungen von allen Beteiligten erfasst werden müssen. Da darf es keine Unstimmigkeiten bezüglich der Frequenz oder der Übertragungsprotokolle geben, das betrifft den physikalischen Bereich. Aber auch auf der Schicht des Datentransfers und der Anwendungen muss man Kompatibilität schaffen, entweder jeweils einzeln zwischen den Beteiligten, was natürlich nicht so ökonomisch wäre, oder durch Standards, auf die man sich verlassen kann. Die Ausbildung solcher Standards ist schon im Begriff, aber gerade z.B. bei dem Frequenzthema ist das – auch historisch bedingt – zwischen den verschiedenen Kontinenten nicht so einfach. Beim Nutzen für Logistikunternehmen kann man immer zwischen den Umsatz- und den Kosteneffekten unterscheiden (Bild 9). Es ist klar, der Umsatz soll steigen, und
88
Gerrit Wiegmink
die Kosten sollen sinken. Das ist die Zielrichtung. Aber der Bereich des Nutzens ist etwas unterschiedlich, je nach der Art des Logistik-Geschäftes, das man betreibt. Wir denken, dass für mehr einzelkundenorientierte Segmente wie Kontraktlogistik, bei uns abgebildet durch DHL-Solutions, RFID die Möglichkeit zu einem speziell auf den individuellen Kunden zugeschnittenen Service in der Versorgungskette bietet. Für mehr netzwerkorientierte Segmente wie das Brief- oder Paketgeschäft stehen die kostensenkenden Effekte durch betriebliche Verbesserungen im Vordergrund.
Bild 9
Für die noch verbleibende Zeit dieses Vortrags ist es sicher interessant, ein paar Projekte, die wir gemacht haben, anzuschauen (Bild 10).
6 RFID in der Logistik
89
Bild 10
Zunächst wurden vorwiegend Anwendungen für geschlossene Kreisläufe getestet und installiert. Ein typisches Beispiel ist die Identifizierung und Verfolgung von Wechselbehältern in den Höfen der Paketzentren in Deutschland. Das sind die Container auf den Lastwagen. Es kann viel Zeit und Arbeitsaufwand gespart werden, wenn man stets genau weiß, wo sich die Container befinden.Wir haben mehrere Versuche zur Verfolgung der Verpackungen von Mobiltelefonen wie auch einzelner Telefone erfolgreich mit Telekom und Nokia durchgeführt. Eine weitere Anwendung im Bereich Brief ist die Verwendung von Testbriefen zur Laufzeitmessung. Die Testbriefe werden in den Briefstrom eingeschleust und bezüglich Ort und Zeit verfolgt. Das ist eine Anwendung auf „Item-Level“, bei der die relativ teuren aktiven Transponder sich als ganz hervorragend an die Bedürfnisse angepasste Technologie herausgestellt haben. Die im Prozeß stehenden Menschen sollen die Testbriefe und ihre Registrierung nicht bemerken, was mit RFID ausgezeichnet umgesetzt werden kann. Man kann damit nicht nur Laufzeitmessung machen, sondern auch detailliertere Prozeßanalyse. Große Einzelhandelsketten werden wohl in Zukunft immer häufiger die RFIDIdentifizierung für Lieferungen an sie verlangen. Unser erstes von RFID inspiriertes Produkt ist der „TAG FIT“-Service, bei dem DHL-Solutions den Lieferanten solcher Einzelhandelsketten anbietet, die RFID-Anforderungen im Rahmen des Logistikprozesses für den Lieferanten zu erbringen.
90
Gerrit Wiegmink
Nun noch einmal kurz zu den Grenzen und Problemen, die wir sehen (Bild 11). RFID muß noch einige Hindernisse überwinden. Aber wir haben in den letzten Jahren allerhand neue Entwicklungen und Fortschritte gesehen, angetrieben auch durch die Pläne von Wal-Mart, Metro, Tesco oder des US-Verteidigungsministeriums. Im Augenblick liegen die meisten Aufgaben und Risiken in den Bereichen Technologie, Standards und Kosten. Ich hatte schon gesagt, dass ohne Leseraten von fast 100 %, die schwer zu erreichen sind, einige Anwendungen zum Scheitern verurteilt sind. Es gibt auch physikalische Probleme, wie Abschirmung durch Metalle oder Wasser, Störungen im Umfeld, Reichweitenprobleme und andere, bei denen im Einzelfall viel zu tun ist. Manchmal ist Menschenlesbarkeit, die ja bei RFID primär nicht gegeben ist, im Prozeß zusätzlich gefordert. Die Preise von Transpondern sind für viele Massenanwendungen noch zu hoch. Dies gilt auch noch im Einzelhandel. Wenn z.B. ein Yoghurtbecher 2 Cent kostet, möchte man keinen Transponder, der 10 Cent kostet, darauf verwenden, vor allen Dingen, wenn er dann mit dem Becher weggeworfen wird.
Bild 11
6 RFID in der Logistik
91
Datenschutzprobleme werden häufiger vorgebracht und werden vielleicht zu gesetzlichen Beschränkungen führen. Die Datenschutzprobleme werden in der Logistik wahrscheinlich nicht ganz so virulent werden wie etwa schon bekannte Probleme im Kundenbereich bei Warenhäusern. Mit EPC-global gibt es einen starken Treiber für internationale Standards, auch ISO und Industriegremien wie IATA arbeiten an Standards. Zum Abschluß ein Ausblick: einige Thesen aufgrund unserer Erfahrungen und Einschätzung der RFID-Technologie: 1. Die Preise werden bis zu einer gewissen Grenze aufgrund der erhöhten Verbreitung und Stückzahlen fallen, danach werden neue technische Verbesserungen nötig. Außerdem ist von entscheidender Bedeutung, ob und wie der Übergang auf den Item-Level stattfindet. 2. Regierungen und Kunden werden von ihren Logistikdienstleistern fordern, dass eigene RFID-Lösungen unterstützt werden. 3. Es wird eine lange Übergangszeit geben, während der RFID und Barcodes parallel angewandt werden. Für manche Bereiche wird sich RFID evtl. gar nicht duchsetzen, weil sich einfach nicht alles lohnt. Wir erwarten keine plötzliche völlige Umstellung auf RFID, wie es auf dem Höhepunkt der Euphorie vor etwa einem Jahr in der Presse zuweilen vorhergesagt wurde. 4. Mit wachsenden RFID-Kenntnissen und -erfahrung werden neue Anwendungen erscheinen, die bereits existierende Anwendungen kombinieren und verschmelzen. Die Verbindung zwischen RFID und anderen Technologien (z.B. GPS, GSM, verschiedene Arten von Sensoren) werden die Versorgungskette immer transparenter machen. RFID wird die Logistik-Industrie nicht schlagartig verwandeln, aber es verspricht, die Transparenz der gesamten Logistik-Kette im Laufe der Zeit nachhaltig zu erhöhen. Wir sehen keine Revolution, sondern eher ein langsames, vernunft- und ertragsgetriebenes Einwachsen der RFID-Technologie in die Logistik.
7 RFID in der Kritik Rena Tangens FoeBuD e.V. & Big Brother Awards Deutschland Das Thema RFID wurde in diesem Jahr ausführlich von der Presse behandelt und ist nun auch Thema dieser Tagung – mit Verlaub, an dieser Entwicklung ist meine Organisation, der FoeBuD, nicht unbeteiligt. Denn erst durch den FoeBuD und seine Kritik an der unreflektierten Einführung der RFID-Technik kam dieses Thema auf die Tagesordnung der öffentlichen Diskussion. Um meine Organisation kurz vorzustellen: FoeBuD steht für „Verein zur Förderung des öffentlichen bewegten und unbewegten Datenverkehrs“ und bevor Sie nach einem tieferen Sinn suchen: Es handelt sich um eine Parodie auf die skurrilen und komplizierten Abkürzungen der Deutschen Bundespost, als diese in Deutschland noch für die Telekommunikation zuständig war. Diese Zeiten, wo das Anschließen eines Modems ohne Postzulassungsstempel als Straftat verfolgt wurde, sind nun schon eine Weile her. So können Sie aus unserem Namen schließen, dass es unsere Organisation schon recht lange gibt, genau gesagt: seit 1987. Im FoeBuD-Logo erkennen Sie einen stilisierten Computer und auch ein bisschen Albert Einstein, der die Zunge rausstreckt – es steht für Freude an der Technik ebenso wie für Neugier, Kreativität und Fähigkeit zu kritischem Denken (Bild 1).
Bild 1
94
Rena Tangens
Hintergrund des Engagements für Datenschutz Von interessierter Wirtschaftsseite wird es oft so dargestellt, dass Kritik an RFID grundsätzliche Technologiekritik wäre oder gar irrationale Angst vor neuer Technik. Diese Darstellung ist falsch – und am Beispiel des FoeBuD lässt sich das auch gut belegen, denn Technikfeindlichkeit kann man uns beim besten Willen nicht nachsagen. Wir haben im FoeBuD schon immer mit neuester Technik gearbeitet, kreativ ihre Grenzen ausgelotet und Technik auch aktiv mitgestaltet. So haben wir bereits Ende der 80er Jahre in Deutschland MailBox-Netze aufgebaut – also elektronische Kommunikationssysteme gestaltet – als die meisten Menschen noch nicht einmal das Wort „Internet“ kannten und als die Post noch behauptete, Geschwindigkeiten jenseits von 2400 bps würde das Telefonnetz nicht aushalten. Unsere Kritik an RFID fußt eben gerade darauf, dass wir mit Technik vertraut sind – und sie gleichzeitig im Kontext von Gesellschaft sehen und vielleicht ein bisschen mehr Phantasie haben, was zukünftige Anwendungsszenarien angeht.
Netzwerken Unser eigenes Netzwerksystem in Bielefeld hieß //BIONIC. Neben unserem lokalen System stand sehr bald die Netzpolitik im größeren Rahmen im Mittelpunkt unserer Arbeit. Hier ging es u.a. um technische Standards, demokratische Organisation, Koordination der Netze, um die Entwicklung der „Netikette“ (die Kommunikationsregeln im Netz), Diskussion von Inhalten bis hin zu rechtlichen Fragen. Und wir waren an der Entwicklung der Software beteiligt, die im Netz zum Einsatz kam: das Zerberus Mailbox-Programm. Die prominenteste und wohl auch wichtigste Anwendung unserer Mailboxnetze und der Zerberus-Software war das Zamir Transnational Network in Jugoslawien während des Krieges 1992-1996. »Za Mir« bedeutet in den meisten Sprachen, die im ehemaligen Jugoslawien gesprochen werden, »für den Frieden«. Das Zamir MailBox-Projekt wurde eingerichtet, um Friedens-, Menschenrechts- und Mediengruppen in den verschiedenen Landesteilen eine Möglichkeit zu geben, miteinander zu kommunizieren – und mit dem Rest der Welt in Verbindung zu treten (Bild 2). Das war deswegen so schwierig, weil die Telefonleitungen zwischen den verschiedenen Teilen Ex-Jugoslawiens unterbrochen worden waren: Von Serbien aus war es nicht möglich, ein Gespräch nach Kroatien zu führen. Auslandsleitungen funktionierten aber noch. Dieses Wissen ermöglichte den »Hack«, jegliche Embargoverfügungen zu umgehen. Die Nachrichten von der ZAMIR-BG in Belgrad wurden über die BIONIC in Bielefeld nach Zagreb zur ZAMIR-ZG geschickt und vice versa. Es gab Zamir-Systeme in Ljubljana in Slowenien, Zagreb in Kroatien, Belgrad in Serbien, Tuzla in Bosnien, Pristina im Kosovo und sogar im mehrere Jahre lang von den Serben belagerten Sarajevo in Bosnien. Für viele Menschen dort war Zamir der einzige Draht nach außen.
7 RFID in der Kritik
95
Bild 2
Technikgestaltung Die Bürgernetze waren die Avantgarde; Firmen folgten ins Netz – und nutzten Zerberus. Von MAN über Nedlloyd Road Cargo bis Siemens. Und sogar bei der Telekom wurde später mit dem von Zerberus definierten Datenaustauschformat ZCONNECT programmiert. Nicht zuletzt durch unsere Arbeit an der BIONIC-MailBox als dem wichtigsten Server des Zamir-Netzes haben wir aus eigenen Anschauung lernen können, wieviel sensible Information über unzählige Netznutzer/innen (aber auch völlig Unbeteiligte) an so einem zentralen Punkt anfällt – und wieviel Macht diese Information denen verleihen kann, die skrupellos genug sind, sie sich anzueignen und für ihre Zwecke auszuwerten. Dies war ein Grund, uns der datenschutz- und damit letztlich auch demokratie-freundlichen Gestaltung der Zerberus-Software zu widmen. Die Gestaltung der Software hat Einfluss auf das Netz – sie bestimmt maßgeblich die Netzstrukturen und auch die Art und Weise, wie darin kommuniziert wird. Zerberus besaß von Anfang an eine Reihe charakteristischer Merkmale: Zerberus setzte auf »low tech« und »low cost«. Zerberus war ressourcenschonend sowohl in der Hardware-Infrastruktur als auch in den Telefonkosten, lief (und läuft noch!) äußerst stabil auch unter schwersten Bedingungen, erlaubte nicht-hierarchische, chaotische Netzstrukturen und machte damit Zensur schwer bis unmöglich. Und setzte Meilensteine für Datensicherheit und Datenschutz: Das Mitlesen persönlicher Nachrichten am Konsolenbildschirm des Systems war nicht möglich, die persönlichen Postfächer wurden standardmäßig mit dem Userpasswort verschlüsselt – nicht nur für Teil-
96
Rena Tangens
nehmer/innen, die sich gerade besonders bedroht fühlten, sondern als Standard für alle. Denn: Defaultwerte sind Politik.
Big Brother Awards – Negativ-Oscars für Datenkraken Seit dem Jahr 2000 hat der FoeBuD sein Engagement für Datenschutz und Demokratie auf eine andere Ebene gestellt und organisiert seither die Big Brother Awards (Bild 3). Die Big Brother Awards, »die 7 Oscars für Überwachung« (Le Monde), sind eine Ehrung, die bei den damit Ausgezeichneten nicht eben beliebt ist. Die Big Brother Awards brandmarken Firmen, Personen, Institutionen, die jeweils im vergangenen Jahr besonders böse aufgefallen sind durch Verletzung von Datenschutz, informationeller Selbstbestimmung und Privatsphäre der Bürger/innen, durch Installation von Überwachungsstrukturen und uferloses Datensammeln. Der Name ist George Orwells negativer Utopie 1984 entnommen, obwohl uns Schöne Neue Welt von Aldous Huxley und Der Prozess von Franz Kafka die treffenderen literarischen Metaphern scheinen. Die BBA-Preisskulptur, die von Peter Sommer entworfen wurde, zeigt daher auch nicht zufällig eine Passage aus Huxleys Schöne Neue Welt. Aber erstens wollen wir ja keinen Literaturpreis vergeben, zweitens weckt »Big Brother« auch bei Unbelesenen zumindest die Assoziation von Überwachung, Unfreiheit und Kontrolle, und drittens sind die Big Brother Awards ein internationales Projekt: Sie werden zur Zeit (2005) in 17 Ländern vergeben: Australien, Dänemark, Frankreich, Belgien, Großbritannien, Niederlande, Italien, Japan, Finnland, Österreich, Schweiz, Spanien, Tschechien, Ukraine, Ungarn, USA/ Kanada. Die Big Brother Award Jury besteht aus Persönlichkeiten von verschiedenen Bürgerrechts-, Datenschutz- und Netzorganisationen. Die Preise werden in unterschiedlichen Kategorien vergeben: Politik, Behörden und Verwaltung, Kommunikation, Verbraucherschutz, Arbeitswelt, ein Technik/Szenepreis und einer für das »Lebenswerk«. Zu den Ausgezeichneten gehörten u.a. die Payback-Rabattkarte (für das zentrale Sammeln umfangreicher Konsumdaten), Innenminister Schily (2001 für die Anti-Terrorgesetze, den sogenannten »Otto-Katalog«), die Bayer AG (für den Drogentest per Urinprobe bei ihren Auszubildenden), die Deutsche Postshop GmbH (für die Aufhebung der ärztlichen Schweigepflicht in den Arbeitsverträgen der Postagenturnehmer), die Informa (für das völlig intransparente Scoringverfahren, das die Kreditwürdigkeit jedes Bürgers in einer Zahl angibt), das Ausländerzentralregister (für institutionalisierte Diskriminierung), das Bundeskriminalamt (für seine Präventivdatenbanken AUMO, REMO und LIMO), Microsoft (u.a. für Digital Rights Management), TollCollect (für Kfz-Kennzeichenerfassung aller Fahrzeuge) und – last not least – die Metro Group für ihre Future Store Initiative zur Einführung von RFID-Technik im Supermarkt.
7 RFID in der Kritik
97
Bild 3
RFID – eine Gefährdung der Privatsphäre mit neuer Qualität Mit RFID – seinerzeit noch Transpondertechnik genannt – hatte sich der FoeBuD bereits ein paar Jahre auseinandergesetzt, bevor die Metro mit ihrem Future Store Furore machte. Und bei aller Technik-Faszination lagen für uns die kritischen Punkte auf der Hand. Jede Ware, jedes einzelne Objekt erhält mit RFID eine weltweit eindeutige Seriennummer (anders als beim Strichcode, der nur die Warengruppe bezeichnet). RFID-Chips können berührungslos aus der Entfernung gelesen werden (auch ohne Sichtkontakt). Durch Registrierung und Tracking der RFID-Chips werden neue große Datensammlungen erzeugt. Die Seriennummer und die Information auf dem RFID-Chip sind nur scheinbar produktbezogen und anonym. Tatsächlich können sie an vielen Stellen mit persönlichen Daten der Besitzer/innen verknüpft werden – sie sind personenbeziehbar. Neue Datenbanken mit den RFID-Chip-Seriennummern und verknüpften Informationen bieten schnellen Zugang zu großen Mengen an personenbeziehbaren Daten. RFID-Chips und RFID-Scanner können versteckt angebracht sein. Bürger/innen können auf vorhandene RFID-Chips gescannt werden, ohne dass sie es bemerken. Die Leseentfernung kann vergrößert werden durch Erhöhung der Sendeleistung der RFID-Scanner und durch Abschaltung von Sicherheitsfeatures. RFID ermöglichen nicht nur Konsumprofile (das tun Kundenkarten schon jetzt), sondern zusätzlich detaillierte Bewegungs- und Interessenprofile.
98
Rena Tangens
Welche Folgen hat das? Es entsteht die Gefahr der Überwachung. Tracking wird möglich durch RFID in Kleidung, Ausweispapieren, Bargeld etc.Gezielte Manipulation wird möglich, z.B. durch Nutzen der Informationen, die durch Speicherung des Bewegungs- und Interessenprofils gewonnenen werden. Gezielte Diskriminierung wird möglich, z.B. Preisdiskriminierung. Das heißt: unterschiedliche Preise für unterschiedliche Leute für dieselbe Ware im selben Supermarkt. Günstige Angebote gelten nur für profitable, wohlhabende Kunden, die außerdem per Kundenkarte bereit sind, ihre Privatsphäre preiszugeben. Das ist unsozial.
RFID und Metros Future Store Das Anliegen der Big Brother Awards ist nicht nur Datenschutz im engeren Sinne, sondern die Erhaltung bzw. Wiederherstellung der informationellen Selbstbestimmung als Grundlage einer freien, sozialen, gerechten und demokratischen Gesellschaft. Die Big Brother Awards prangern deshalb nicht nur konkrete Fälle von Verletzung des Datenschutzes an, sondern nominieren auch vorausschauend, z.B. Gesetzesentwürfe oder Technologien, die potentiell gefährliche Strukturen aufbauen. Denn es geht den Big Brother Awards nicht darum zu zeigen, dass die Welt schlecht ist und daran sowieso nichts zu ändern ist. Ganz im Gegenteil: Die Big Brother Awards haben das Ziel, durch Aufklärung ein Bewusstsein für den Wert der informationellen Selbstbestimmung zu schaffen und durch einen öffentlichen Diskurs zukünftige Entwicklungen positiv zu beeinflussen. Dafür muss in einigen Fällen ein wenig in die Zukunft geschaut werden. Und so haben wir uns für Metros Future Store erlaubt, die Big Brother Award-Laudatio als Zukunftsszenarien zum Thema RFID im Supermarkt zu gestalten (siehe www.bigbrotherawards.de/ 2003/.cop/). Einige der Szenen sind mittlerweile sehr bekannt (und viel zitiert) geworden. Zum Beispiel diese hier: November 2004: Marion Z. bekommt einen Bußgeldbescheid der Stadt Duisburg. Das Papier eines von ihr gekauften Mars-Riegels wurde im Ententeich des Stadtparks gefunden. Marion Z. grübelt und kommt darauf, dass sie den Riegel einem Kind beim MartinsSingen geschenkt hat. Zähneknirschend zahlt sie 10 Euro Bußgeld. Dieses Szenario hat anschaulich gemacht, was eine RFID-Kennzeichnung von Einzelprodukten bewirken kann: Jedes einzelne Produkt könnte durch die Registrierung beim Einkauf einem Menschen zugeordnet werden. Und das kann weit unangenehmere Folgen als 10 Euro Bußgeld haben. Aber auch das folgende Szenario ist gar nicht weit hergeholt:
7 RFID in der Kritik
99
September 2003 Die Redaktion von Spiegel-Online fällt auf die Presse-Arbeit der Metro AG herein und lobt in einem redaktionellen Artikel ausschließlich die Vorteile für die Verbraucher. Zum Beispiel sei es jetzt möglich, dass Kunden sich über die Displays das genaue Herkunftsland der Waren anzeigen lassen. Der Einkauf werde viel transparenter. In der Marketing-Abteilung der Metro Gruppe knallen die Sektkorken. „Glauben die echt, dass wir so doof sind, und da rein schreiben, dass diese Kaffeebohnen von 5jährigen Kindern gepflückt worden sind???“, wundert sich Praktikantin Nina S. Im Anschluss an die Feierstunde gibt sie weiter Umwege in das Navigationssystem des Einkaufswagen-Servers ein, damit er die Kunden an bestimmten Produkten vorbei führt. Denken Sie immer noch, dass Sie durch RFID besser über die Produkte informiert würden und der Einkauf bequemer? Aber auch für Arbeitnehmer/innen könnte die Einführung von RFID zu unangenehmen Überraschungen führen: Juni 2004 Als Supermarkt-Fachkraft Gerd J. abends nach Hause kommt, liegt dort ein Brief seiner Geschäftsleitung mit einer Abmahnung. Er sei in den vergangenen Wochen durchschnittlich 9 Mal auf der Toilette gewesen und habe dort pro Tag ca. 72 Minuten zugebracht. Das liege 27 Minuten über dem Soll und diese Zeit werde ihm zukünftig von seinem Arbeitszeitkonto abgezogen. Entsetzt sucht er seinen Supermarkt-Kittel ab und findet einen RFID im Kragensaum. Arbeitskleidung mit integrierten RFID-Chips und Seifenspender, die anhand des Funkchips kontrollieren, ob sich jemand auch die Hände gewaschen hat, sind in den USA bereits Realität. Mein Lieblingsszenario aber ist das folgende, das die vorgeblichen Segnungen der neuen Technologie für die Verbraucher auf die Schippe nimmt: Juli 2005 Start-up Unternehmer Lars H. kauft sich einen neuen intelligenten Kühlschrank. Dieser Kühlschrank weiß aufgrund der RFIDs, was er geladen hat, welcher Joghurt am Verfallsdatum ist und was als nächstes eingekauft werden muss. Über das Internet kann der Kühlschrank selbständig nachbestellen oder den Display-Einkaufszettel im Supermarkt ergänzen. Außerdem macht er über ein Display in der Tür Rezeptvorschläge. Nachts träumt Lars H. davon, dass sein Kühlschrank für sich eigenmächtig jeden Abend eine Pizza Tonno bestellt und mit dem Toaster zusammen aufisst. Er wird schweißgebadet wach. Verkatert findet er morgens im Briefkasten eine Ermahnung seiner Krankenkasse. Sein Speiseplan weise zu viel Farb- und Konservierungsstoffe auf, steht da. Wenn er seine Ernährung nicht umstelle, werde ab Anfang kommenden Jahres sein Versicherungsbeitrag erhöht. Leider kam die Metro Group nicht zur Big Brother Awards Preisverleihung im Oktober 2003.
100
Rena Tangens
Auch andere Gesprächsangebote wie das Zusenden unseres RFID-Positionspapiers (www.foebud.org/rfid/), das von einer Vielzahl von internationalen Bürgerrechtsorganisationen im November 2003 gemeinsam verabschiedet wurde, blieben unbeantwortet. In dem Positionspapier fordern wir u.a. ein Moratorium und den notwendigen gesellschaftlichen Diskurs für eine datenschutz- und demokratiefreundliche Gestaltung der RFID-Technologie. Ende Januar 2004 kam Katherine Albrecht von der amerikanischen Verbraucherorganisation CASPIAN auf Einladung des FoeBuD nach Deutschland, um bei der monatlichen PUBLIC DOMAIN Veranstaltung in Bielefeld einen Vortrag über RFID zu halten. Als kleines Dankeschön haben wir sie zu einem gemeinsamen Besuch des Future Store in Rheinberg eingeladen – ein samstäglicher Einkaufsbummel mit eingehender Besichtigung der dort eingesetzten RFID-Technik. Da wir gerne offen arbeiten, haben wir die Metro vorher von unserem geplanten Besuch unterrichtet. Auf Nachfrage hat sich die Metro dann freundlicherweise entschieden, uns doch lieber eine Führung zu geben, als uns auf eigene Faust durch den Extra Future Store laufen zu lassen (Bild 4).
Bild 4
Und so besichtigten wir während der 3-stündigen geführten Tour durch den Supermarkt der Zukunft die Displays an den Einkaufswagen (genannt „Personal Shopping Assistant“), die lustige Obst- und Gemüsewaage, die durch optischen Mustererkennung Bananen von Tomaten unterscheiden kann (mit RFID allerdings überhaupt nichts zu tun hat), die Infoterminals (die mit Strichcode genauso gut funktionieren würden), Philadelphia Käse, Gillette Rasierklingen und Pantene Shampoo mit RFID-Etiketten und sogenannten „intelligenten Regalen“. Das DVD-Regal wurde uns nicht gezeigt, man brachte uns zuvorkommenderweise eine DVD zur „Selbstzahler-Kasse“1, um dort Jugendschutz zu demonstrieren – ein Alarmsignal beim 1. Sollte das nicht eher „Selbstbucherkasse“ heißen? Oder wer zahlt an den anderen Kassen für mich?
7 RFID in der Kritik
101
Sicherheitsdienst, wenn jemand eine DVD kaufen will, die erst ab 16 Jahren freigegeben ist. Schließlich wurde uns stolz der „Deaktivator“ präsentiert, mit dem die Kundinnen nach dem Einkauf die RFID-Chips löschen können sollen. Dieser hat sich allerdings als Mogelpackung entpuppt. Denn wie wir feststellten, können mit dem Deaktivator zwar die allgemeinen Produktdaten gelöscht werden, die auch auf einem Strichcode enthalten sind, nicht aber die weltweit eindeutige Seriennummer des RFID-Chips genau dieser einzelnen Packung (Bild 5). Die Herren von der Metro verstanden offensichtlich nicht, dass das ein Problem ist und beteuerten, dass diese Nummer bisher bei ihnen gar nicht ausgewertet würde. Nach der Besichtigung wollten wir mit der Metro über das von uns geforderte Moratorium, eine datenschutz- und demokratiefreundliche Gestaltung der RFID-Technologie und den notwendigen gesellschaftlichen Diskurs sprechen, doch die Vertreter der Metro zeigten sich wenig interessiert.
Bild 5
Der Metro-Skandal: RFID-Schnüffelchips in Payback-Kundenkarten versteckt Den eigentlichen Skandal haben wir aber erst tags darauf herausgefunden. Er lag nicht in den RFID-Etiketten von Frischkäse, Rasierklingen, Shampoo oder an DVDs und auch nicht im nicht funktionierenden Deaktivator, sondern kam für uns selbst völlig überraschend. Während des PUBLIC DOMAIN Vortrags von Katherine Albrecht (einen Tag nach der Besichtigung des Future Stores) demonstrierten wir dem Publikum mit unserem eigenen RFID-Lesegerät das Scannen von aus dem Future Store mitgebrachten Waren. Shampoo oder Frischkäse über den Scanner halten, es sagt „bliiip“ und eine Nummer erscheint auf dem Bildschirm. Eine Zwischenfrage aus dem Publikum: Ob in der Payback-Kundenkarte des Future Store auch ein RFID-Chip sei? Wir verneinen, denn davon wurde uns bei der Führung im Future Store nichts gesagt und es stand auch in keiner der Infobroschüren der Metro,
102
Rena Tangens
die doch alle RFID-Anwendungen des Future Stores für die Verbraucher auflisteten. Der Schnüffelchip in der Kundenkarte war nur eine düstere Zukunftsvision in der Big Brother Award Laudatio – dachten wir. Aber da wir eine Future Store Kundenkarte mitgebracht hatten, probierten wir es einfach einmal aus und hielten die Karte über den RFID-Scanner und siehe da – es machte „bliiip“ und es erschien eine Nummer auf unserem Bildschirm (Bild 6). So geschah die Entdeckung des Schnüffelchips in der Kundenkarte auf offener Bühne bei der PUBLIC DOMAIN.
Bild 6
Um ganz sicher zu gehen haben wir am nächsten Tag einen Röntgenarzt gebeten, die Kundenkarte auf sein Gerät zu legen und eine Aufnahme zu machen. Im Röntgenfoto ist es klar zu sehen – der RFID-Chip unten rechts und die Antennenwindungen über die gesamte Fläche der Karte. Das war eindeutig (Bild 7). Wir haben bei Metro angerufen, von unserer Entdeckung berichtet und gefragt, wo sie eigentlich ihre Kunden darauf aufmerksam machen.
Bild 7
7 RFID in der Kritik
103
Die Antwort des Pressesprechers war: „Wir melden uns später.“ Die spätere Meldung bestand in einer Mail mit neun Fotos vom DVD-Regal, die unsere Frage beantworten sollten. Mit anderen Worten: Erst am DVD-Regal erfahren die Kund/innen, dass ihre Payback-Kundenkarte einen RFID-Chip enthält (Bild 8). Wenn sie da überhaupt jemals hingehen. Und denn zufällig die angeklebten Schildchen lesen. Und sie richtig zu deuten wissen. „Freischaltung für alle Trailer bitte über den RFID-Chip in Ihrer Extra Future Card.“?! Moment mal, den Text kannten wir noch gar nicht! Ein Vergleich „vorher/nachher“ mit einem Foto, das jemand vom FoeBuD bei unserer Besichtigung am Samstag von dem Regal gemacht hatte, zeigte auch schnell, warum. Von Samstag auf Montag hatte eine wundersame Schildchenvermehrung stattgefunden. Wir waren von dieser Vertuschungsaktion der Metro irritiert und fragten telefonisch noch einmal nach, seit wann die Schilder hängen. Als Antwort wurde uns gesagt „schon ganz lange – wie die anderen Schilder auch“. Journalisten wurde auf dieselbe Frage mitgeteilt, „die wurden innerhalb der letzten Wochen aufgehängt“ und „an ein genaues Datum könne man sich nicht erinnern“. Dieses Verhalten der Metro Group fanden wir so wenig seriös, dass wir das Vertrauen in die guten Absichten des Konzerns verloren und damit auch die Hoffnung auf einen offenen Diskurs und eine einvernehmliche Lösung zur datenschutzfreundlichen Gestaltung der RFID-Technik in diesem Kontext.
Bild 8
Seit April 2003 liefen 10.000 Kund/innen des Future Store in Rheinberg mit einer verwanzten Payback-Karte herum, ohne irgendetwas davon zu wissen und ohne dass irgendein offizieller Datenschützer es bemerkt hätte. Wir veröffentlichten eine Pressemeldung zu dem Vorfall samt den „vorher-nachher“-Fotos. Und die Presse berichtete – von der c’t über die Frankfurter Rundschau, die Süddeutsche Zeitung bis zur Financial Times und den ARD Börsennachrichten („Metro bekommt Probleme mit Funkchips“).
104
Rena Tangens
Bild 9
Wir forderten Metro auf, den unkontrollierten Feldversuch mit RFID einzustellen, einem Moratorium zuzustimmen und ein Gremium einzurichten, das die technische Gestaltung und die gesellschaftlichen Folgen von RFID erforscht. Metro lehnte ab. Wir riefen für den 28. Februar 2004 gemeinsam mit etlichen anderen Bürgerrechtsorganisationen zur Demonstration vor dem Future Store in Rheinberg auf (Bild 9). Einen Tag vor der angekündigten Demonstration schickt Metro ein Fax, in dem sie ankündigen, dass sie die 10.000 Kundenkarten, die sie für den Future Store in Rheinberg ausgegeben hatten, zurückziehen und gegen normale Plastikkarten ohne Chip austauschen werden. Ein Riesenerfolg! Spiegel online schreibt : „Es ist ein ungleicher Kampf – eine Handvoll ehrenamtlich arbeitender Enthusiasten des FoeBuD gegen milliardenschwere Konzerne – doch er zeigt Wirkung.“
7 RFID in der Kritik
105
Bild 10
Da Metro unsere anderen Forderungen weiterhin ignoriert, findet die Demonstration in Rheinberg am 28. Februar statt und ist – trotz Schneechaos auf den Autobahnen an diesem Tag – ein großer Erfolg. Medien weltweit – Zeitungen, Fachzeitschriften, Online-Magazine, Radio und Fernsehen – berichten über den Widerstand gegen RFID. BBC World schickt ein Kamerateam nach Bielefeld und auch der staatliche japanische Fernsehsender NHK kommt für ein Interview. Wer Google nach „RFID“ fragt, bekommt auf den deutschen Seiten den FoeBuD als ersten Treffer (Bild 10).
Forderungen zu RFID Wichtigster Grundsatz: Datenvermeidung und Datensparsamkeit. Das heißt, Daten, die nicht notwendig sind, dürfen gar nicht erst erfasst werden. Und: Es sollen so wenig wie möglich persönliche Daten erhoben, gespeichert und verarbeitet werden. Transparenz. Das heißt: Sowohl RFID-Chips als auch RFID-Scanner müssen, wo immer sie sind, deutlich sichtbar mit einem Warnhinweis gekennzeichnet werden. Datenschutz muss Standard sein. Das bedeutet, Opt-Out-Lösungen, wo die Kundinnen extra tätig werden müssen, um ihre Privatsphäre zu schützen, sind nicht akzeptabel.. So zum Beispiel der sogenannte Deaktivator im Future Store, wo sich die Kundinnen und Kunden, nachdem sie die Kasse passiert haben, noch einmal neu anstellen müssen und jedes einzelne Produkt auf den Deaktivator stellen müssen, um den RFID-Chip mit Nullen zu überschreiben, – der ist definitiv keine Lösung. Haben Sie sich den wunderschönen Future-Store-Werbefilm, den Metro im Internet stehen
106
Rena Tangens
hat, einmal angeschaut? Da sieht man wie eine Frau einen kompletten Einkaufswagen durch die Kasse durch schiebt, alle Waren werden auf einmal gebucht und anschließend geht sie zum Deaktivator, nimmt ein Paket Kaffee aus diesem Wagen heraus, legt es auf den Deaktivator, drückt eine Taste „Ja, ich will wirklich deaktivieren“, legt den Kaffee zurück in den Einkaufswagen zu den vielen anderen Sachen, die sie gekauft hat, und geht dann raus. Sie können sich gewiss vorstellen: Wenn aus zwanzig Kassen Menschen herausströmen, dass die keine Lust haben, sich noch einmal an einem Deaktivator anzustellen, um dort jedes einzelne Produkt draufzuheben. Solche Opt-Out-Lösungen haben lediglich Alibifunktion und sind absolut inakzeptabel. Datenschutz muss Standard sein. Das Tracken von Personen ist völlig abzulehnen, sowohl direkt als auch indirekt. Die RFID-Industrie argumentiert oft, dass die Nummern auf den RFID-Chips nicht personenbezogen seien, sondern nur Informationen zum Produkt enthalten würden. Dies stimmt aber nur auf den ersten Blick. Sobald nämlich auch nur an einer einzigen Stelle die Verbindung von einem dieser RFID-Chips zu einer Person hergestellt werden kann, können auch die Informationen aller anderen RFID-Chips, die diese Person trägt, mit ihren persönlichen Daten verknüpft werden. Das heißt, wenn einmal die Verbindung registriert wurde, z.B. an der Kasse, wenn die Kundin nicht bar, sondern mit Kreditkarte oder EC-Karte zahlt oder wenn gar eine Kundenkarte wie die von Payback verwendet wird. Sobald eine Verknüpfung mit den persönlichen Daten erfolgt, ist es auch möglich, eine Person aufgrund der RFID-Chips zu identifizieren und zu tracken. Wenn RFID-Chips auf Einzelprodukt-Ebene eingeführt würden, trügen Bürgerinnen und Bürger aus der Ferne identifizierbare Dinge bei sich und könnten niemals sicher sein, ob nicht doch eine Verknüpfung dieser Produktdaten mit ihren persönlichen Daten geschieht und damit z.B. Bewegungs- und Interessenprofile von ihnen erstellt werden können. • Keine RFID-Chips auf Einzelprodukten („item level“). • Keine RFID-Chips auf Produkten in auch von Kund/innen genutzten Räumen, also zum Beispiel in den Verkaufsräumen. Wenn RFID-Technik in der Logistik bis hin zu den Lagerräumen zum Einsatz kommt, ist das zunächst kein Problem für die Verbraucherinnen und Verbraucher (möglicherweise aber für die Arbeitnehmer/innen!). Klar ist: In den Verkaufsräumen haben RFID-Chips nichts zu suchen. • Keine RFID-Chips in Bargeld. Es muss auch in Zukunft möglich sein, etwas zu kaufen, ohne eine Datenspur zu hinterlassen. • Keine RFID-Chips in Reisepässen, Personalausweisen oder sonstigen Ausweisdokumenten. Stellen Sie sich Pässe mit biometrischen Daten auf RFID-Chips vor, die aus Entfernung auslesbar sind. Und dann stellen Sie sich eine Demonstration wie die in Rheinberg vor. Otto Schily träumt sicher davon, dass er dann nur noch einen RFID-Scanner an den Straßenrand stellen muss und danach die komplette Teilnehmerliste der Demonstration hat. Wenn Bürger nicht sicher sein können, ob
7 RFID in der Kritik
107
so etwas passiert, werden sie in Zukunft möglicherweise vorsichtiger sein, ihr Recht auf freie Meinungsäußerung oder Versammlungsfreiheit wahrzunehmen. So stirbt Demokratie.
Fazit RFID stellt eine neue Qualität des Datensammelns dar: Die individuelle Kennzeichnung von Einzelprodukten (nicht mehr von Warengruppen) und die Möglichkeit, die RFID-Chips aus relativer Entfernung und unbemerkt auszulesen. Daten, die wir einmal abgegeben haben, können wir nicht mehr zurückholen. Und Informationen, die wir heute als banal und unwichtig ansehen, können morgen schon eine ganz andere Bedeutung erhalten, wenn sie in einen anderen Kontext (zum Beispiel Terroristenfahndung) oder in andere Hände geraten (Arbeitgeber, Krankenkasse), wenn neue Forschungsergebnisse (zum Beispiel Zusammenhang zwischen Rindfleisch, BSE und Creutzfeld-Jakob) vorliegen oder wenn sich die politischen Verhältnisse ändern (und missliebige Personen wieder „ausgemerzt“ werden – „Ein Gesindel, das in Deutschland niemand mehr sehen will …“) Auch wenn heute etwas noch nicht gemacht wird, ist dies doch für die Zukunft keineswegs ausgeschlossen. Firmen können aufgekauft werden. Aktionäre können verlangen, dass die Kundendaten doch ausgewertet werden, wenn dadurch mehr Profit erzielt werden kann. Allgemeine Geschäftsbedingungen, Datenschutzbestimmungen, sogar Gesetze können geändert werden. Auch wenn die Metro Group sagt, dass sie mit den durch RFID-Nutzung gewonnenen Daten im Moment nichts anfängt, heißt das nicht, dass sie es nicht in Zukunft tun wird, wenn es ihr profitabel erscheint. Große Datensammlungen wecken stets Begehrlichkeiten. Wenn sie erst einmal vorhanden sind, gibt es schnell Ideen, was man damit noch alles anfangen könnte. Das ist gefährlich. Wir brauchen datenschutzfreundliche Technik („Privacy Enhancing Technologies“). Wenn eine technische Infrastruktur erst einmal in einer bestimmten Form allgemein installiert ist, kann sie kaum noch geändert werden. Wenn die Technik nicht von vornherein so designt ist, dass sie Missbrauch schwer oder unmöglich macht, wird er früher oder später passieren – legal oder illegal. Mit der RFID-Technik kann auch etwas anderes passieren: Wenn die Verbraucher/innen die möglichen negativen Konsequenzen der Technik erst einmal kennen und merken, dass ihre Interessen ignoriert und ihre Besorgnis nicht ernstgenommen wird, dann werden sie die RFIDTechnik nicht annehmen, sondern boykottieren. Späteres Nachbessern an der Technik wird teuer und kann den Schaden kaum wieder gutmachen.
108
Rena Tangens
Wir brauchen Gesetze, die den neuen Gefährdungen durch RFID-Technik wirksam begegnen. Die RFID-Industrie und ihre Lobbyverbände bemühen sich zur Zeit intensiv, eine gesetzliche Regulierung von RFID abzuwehren, indem sie sogenannte „Selbstverpflichtungserklärungen“ propagieren. Diese sollten jedoch zutreffender „unverbindliche Absichtserklärungen“ genannt werden. Warum Firmen, die stets beteuern, nichts Böses mit den gewonnenen Daten machen zu wollen, Angst vor einer gesetzlichen Regulierung haben, leuchtet nicht ein. Denn eine gesetzliche Regulierung würde die „good guys“, also die Firmen, die die Privatsphäre der Bürger tatsächlich achten, schützen – sowohl vor der böswilligen Konkurrenz als auch vor ihren eigenen Aktionären. Wenn einige Firmen meinen, sie könnten die RFID-Einführung wie geplant durchziehen und müssten nun – angesichts der wachsenden Abneigung der Öffentlichkeit gegen die Allgegenwart von Schnüffelchips – lediglich etwas mehr in Lobbyarbeit, Marketing und Public Relations investieren als geplant, um kritische Stimmen platt zu machen – dann unterliegen sie einem gefährlichen Irrtum. Und sie verpassen eine einmalige Chance zur Innovation. Denn Innovation gedeiht nicht in der verbrauchten Luft der Besprechungsräume der Industriezirkel. Sondern in freier Wildbahn, durch Auseinandersetzung und Kreativität. Solange die Industrie uneinsichtig bleibt, bauen wir eben an eigenen Projekten. Zum Beispiel dem DataPrivatizer, einem kleinen Gadget, mit dem sich versteckte RFID-Chips und RFID-Scanner aufspüren lassen (Bild 11). Und RFID-Chips auslesen. Und neu beschreiben.
Bild 11
Ich denke, wir haben die einmalige Chance, bei der RFID-Technologie die Richtung mit zu bestimmen. Wir müssen uns entscheiden, ob wir für eine für eine Kontrollgesellschaft oder für eine lebenswerte Welt arbeiten. Deutschland könnte führend sein in der Entwicklung von nachhaltiger Technologie, die auch morgen noch gesellschafts- und demokratieverträglich ist. Wäre das nicht ein Exportartikel, auf den wir stolz sein könnten?
8 Diskussion
Moderation: Stefan Holtel, Vodafone Pilotentwicklung GmbH, München Herr Holtel: Sie sehen, das Thema RFID hat viele Facetten. Ich möchte jetzt noch 10 Minuten Fragen aus dem Auditorium zulassen. Bitte sehr. Dieter Göltzer, Versandhaus Quelle: Ich habe zwei Fragen; einmal an Herrn Dr. Fleisch. Sie haben gesagt, dass es in den USA Nokia Mobiltelefone mit RFID gibt. Da würden mich der Geschäftssinn und das Geschäftsmodell interessieren. Meine zweite Frage geht an Herrn Dr. Wiegmink. Sie haben gesagt, dass Sie schon testen, auch Lastwagen und Tore. Wir haben an diesen Themen auch Interesse. Haben Sie schon Erfahrungen mit diesen großen Toren, die LKW sind so 2,80 x 2,80? Können Sie etwas zu den Lesequalitäten sagen, die Sie da erreichen? Dr. Fleisch: Zu Nearfield Communication (NFC), das wird durch Nokia vorangetrieben, also ausnahmsweise einmal von einer europäischen Firma. Es geht in die mobile Richtung, und da ist Europa immer noch recht weit vorn. Folgende Ideen existieren heute: Wenn Sie in Frankfurt am Flughafen sind, werden Sie Brandschutzklappen, -türen und Rauchmelder finden, die RFID-Tags haben. Seit Düsseldorf ist man sehr darauf bedacht, die Wartung derartiger Geräte vorschriftsgemäß durchzuführen. Heute ist es so, dass die alle mit Tags ausgestattet sind und ein Wartungsmitarbeiter muss mit der Leiter hinaufklettern und – nachdem er das angeschaut hat – den RFID-Tag einlesen. Damit hat er dokumentiert, dass er vor Ort gewesen ist. Der RFID-Tag ist natürlich nicht über Kilometer lesbar, sondern nur über einige wenige Zentimeter, was auch so beabsichtigt ist. Er muss zur Inaugenscheinnahme wirklich auf der Leiter hinaufsteigen, statt nur ein Häkchen auf einer Liste zu machen. Diese Lesegeräte, die mobilen Reader, sind heute sehr teuer, im Bereich von ca. 2000 Euro. Der Punkt ist, dass Sie nun das gleiche mit einem NFCTelefon, das 100 Euro kostete, machen können. Das sind die Anwendungen, die heute diskutiert werden, Wartung, Reparatur und andere Services. Darüber hinaus sind aber auch ganz andere Szenarien auf dieser Grundlage denkbar: Jetzt hat der Mitarbeiter, und vielleicht auch später der gemeine Konsument, ein Lesegerät, das ihm vertraut ist. Mit dem er alle möglichen Dinge auslesen kann, wenn er will. Auch z.B. um zu überprüfen, ob ein Gut Original oder Fälschung ist. Ich nehme ein
110
Moderation: Stefan Holtel
kleines Beispiel: In der Schweiz haben wir sehr viele Landessprachen. Sie kriegen auf Kaugummipackungen praktisch nicht mehr die ganze Erklärung in allen Landessprachen. Wenn Sie jetzt das Produkt per Handy identifizieren könnten, können sie Erklärungen dazu bekommen, Museumsbesuche, Stadtbesuche, alles Mögliche. Es gibt also ein relativ breites Spektrum. Dr. Wiegmink: Zu Ihrer Frage, wie unsere Erfahrungen mit den Leseraten so sind. Ich kenne genauer das Beispiel der Anwendung, wo man mit Testbriefen Laufzeitkontrollen macht. Da werden die Testbriefe an den Toren der Briefzentren gemessen, wo Antennen an der Decke sind, die ein ungefähr 4 x 5 m großes Feld jeweils abdecken. Bei den Briefen, die da in großen Mengen durchgehen, liegt die Lese- und Erkennungsrate im 90 %-Bereich. Das ist für diesen Zweck ausreichend, weil es andere Stellen in dem Gesamtmessprozess sind, die auch solche Fehlergrößenordnungen haben und das Ganze sowieso ein statistisches Verfahren ist. Dieter Göltzer: Dort werden aktive Tags verwendet. Die Leseraten sind dort extrem gut, über 100 m. Auch die Größe macht überhaupt kein Problem. Dr. Wiegmink: Das bringt mich darauf, ich sollte vielleicht noch zu dem Briefbeispiel ergänzen: In der Tat sind es dort relativ teure aktive Tags. Wenn Sie da andere Sorten nehmen, haben Sie auch jeweils wieder ganz andere Probleme. Man muss immer sehr genau prüfen, welche Situation man hat, bevor man Aussagen über Leseraten und so weiter machen kann. Herr Holtel: Gibt es weitere Fragen? Prof. Meyer, LMU: Mir ist aufgefallen, dass die ersten beiden Referenten wahrscheinlich aus der Situation heraus verständlichen ein Paradigma hatten in Ihren vorträgen, das sehr stark von einem Industriepush oder von einem Businesspushmodell ausgeht, auch gerade Sie, Herr Wiegmink, wenn man die Pfeile gesehen hat. Ich versteh das schon aus Ihrer Logistikposition. Wenn Sie aber in Zukunft eher stärker von einer kunden- und verbrauchergetriebenen Wirtschaft ausgehen, erschließen sich natürlich andere Nutzen, aber vielleicht auch Gefahren. Das ist im letzten Vortrag klar geworden. Wenn Sie sich vorstellen, Sie haben eine RFID Lesegerät in Ihrem Nokia-Telefon, dann können Sie natürlich als Verbraucher, just-in-time Preisvergleiche wunderbar machen in einem Metro Store, wo Sie sehr genau sagen, ob das Sonderangebot wirklich ein Sonderangebot ist. Jeder Konsument, der das macht, kann die Information in einen Datenbank geben, so dass die automatisch aktualisiert wird. Genauso können Sie, Herr Wiegmink, sich vorstellen, dass es für die Post nicht so spaßig ist, wenn
8 Diskussion – Radio Frequency Identification (RFID)
111
mein wirklicher Briefkasten etwas intelligenter wird. Da hat sich 100 Jahre nichts getan. Ich kann über das Auslesen dann bestimmen, was in meinen Briefkasten hinkommen darf und was Sie dafür bezahlen. Ich könnte das noch fortsetzen und Ihnen als Konsument von DHL sagen, welche Sendungen Sie miteinander bündeln müssen und welche Logistikdienstleistung mich überhaupt beliefern darf, damit nicht fünf mein Haus anfahren. Also, in dem Moment, wo Sie empfängergetrieben denken mit Consumer Pull und Sie alle haben noch ein Logistikmodell, was historisch gewachsen, dann erschließen sich auch andere positive Anwendungen, obwohl ich teilweise das auch teile, was die Vorrednerin gesagt hat. Der Konsument kann natürlich seine Macht wesentlich besser ausüben. Dr. Wiegmink: Ich sage mal etwas dazu. Ich sehe vielleicht noch eine Möglichkeit, wie sich natürlich indirekt auch von der Verbraucherseite ein Zug entwickelt. Jeder Verbraucher möchte gern auch niedrigere Preise haben, und wenn die ganze Logistik zwischendurch irgendwie günstiger abgewickelt werden kann, wird sich das letztendlich auch auf die Preise auswirken. Zum Thema „intelligente Briefkästen“: Sie können natürlich Ihre Briefkästen mit allem Möglichen ausrüsten, wenn Sie Ihre bevorzugten Zulieferer dazu bekommen, dass die dann auch kompatible Erkennungsteile in ihre Sendungen hineinbringen. Dann können Sie erkennen, wer Ihnen da was geliefert hat. Das können Sie aber vielleicht auch einfacher, wenn Sie aus dem Fenster schauen, wenn der Postbote kommt. So ganz ist mir Ihre Geschäftsidee noch nicht klar geworden. Prof. Meyer: Akustisch nicht zu verstehen Dr. Wiegmink: Dann wäre wahrscheinlich die sinnvolle Vorgehensweise folgendermaßen: Sie können einen einfachen Aufkleber anbringen „Werbesendungen sollen nicht kommen“, diese Informationen werden wahrgenommen, und dann werden auch die Auflagen von Postwurfsendungen bzw. die Adressen, an die irgendwelche Direktwerbetreibende versenden, entsprechend angepasst, denn diejenigen, die werben, haben auch kein Interesse, ihr Werbematerial zu verschwenden. Wenn man das jetzt mit neuen Techniken noch effektiver gestalten kann, werden die sich auch durchsetzen. Herr Holtel: Vielen Dank. Frau Tangens: Sie wollten noch etwas ergänzen.
112
Moderation: Stefan Holtel
Frau Tangens: Bei diesen so genannten verbrauchergerichteten oder –zentrierten Anwendungen wird ja oft den neuen Bequemlichkeiten, die sich da für die Verbraucher auftun, gesprochen. Als Beispiel wird dann der unsägliche Kühlschrank genommen, der immer sofort eine Salamipizza nachbestellt, wenn ich eine gegessen habe oder herausgenommen habe. Das Beispiel mit der Waschmaschine finde ich interessanter, die merkt, wenn ich zu einem weißen Pullover zwei rote Socken reintue. Ich möchte dabei zu bedenken geben, dass Technik Bildung nicht ersetzen sollte. Ich meine damit, die Erfahrung, einmal rote Socken mit einem weißen Pullover gewaschen zu haben, ist wahrscheinlich einfach eine kulturelle Erfahrung, die Menschen einmal gemacht haben müssen – und dann haben sie etwas gelernt. Das trifft für viele andere Dinge auch zu. Bei der Waschmaschine können wir uns auch eine andere Anwendung vorstellen, die nicht im Sinne der Verbraucher wäre: Stellen Sie sich eine Waschmaschine vor, die nicht anfängt zu waschen; aber nicht wegen der roten Socken, sondern weil Sie nicht die Packung mit Persil Superteuer Megaperls davor gehalten haben, und das dürfen Sie auch nur fünfmal, dann ist die abgelaufen. So etwas gibt es bereits bei Druckerpatronen, wo der Drucker entscheidet, wann die leer ist, auch wenn sie es gar nicht ist. Das ist Technikpaternalismus, der ganz sicher nicht im Sinne der Bürgerinnen und Bürger ist. Prof. Fleisch: In der angewandten Forschung in Europa haben wir bisher das Problem gehabt, dass die Forscher, die sich um das Thema kümmern, keine Betriebe kennen, sondern dass sie Home Automation machen, weil jeder in der Regel doch irgendwo zuhause wohnt; Office Automation, weil jeder ein Büro hat oder Classroom Automation, weil viel an Hochschulen unterrichten. Es ist aber sehr wichtig, dass wir jetzt in die Betriebe hineingehen. Ein Betrieb hat natürlich zwei Seiten, das eine ist immer das Supply Chain Management nach hinten, das andere immer das Customer Relationship Management. Was Sie erwähnen, ist natürlich sehr richtig und sehr wichtig. Ich habe versucht, mit den smarten Produkten in diese Richtung zu gehen. Ein zentraler Punkt sind beispielsweise Bezahlsysteme. Wenn Sie die NFC Telefone nehmen oder RFID als Bezahlsystem, ist es eine mögliche Killerapplikation, die definitiv kommen wird. Sie finden es heute in Tankstellenketten in den USA schon länger. Alles hat zwei Seiten; das ist mein wichtiges Statement. Seit Pandora die Box auf die Welt gebracht hat, hat jede Technologie zwei Seiten, und es nützt überhaupt nichts, wenn man das entweder nur durch die rosa Brille sieht oder alles verteufelt oder wie auch immer, sondern es muss eine konstruktive Lösung gefunden werden. Die Bremserei und die übertriebene Anschieberei helfen uns hier in Europa sicher nicht. Herr Holtel: Ich möchte diese Session jetzt beschließen und hoffe, dass Sie als Zuhörer einige neue Aspekte von RFID mitnehmen konnten. Vielen Dank noch einmal an die Referenten.
8 Diskussion – Radio Frequency Identification (RFID)
Neue Herausforderungen an Mensch und Maschine
113
9 Begeisternd und mühelos zu bedienen: Mobile Endgeräte für den Menschen Jens-Thomas Pietralla Chief Marketing Officer, Siemens Communications, Siemens AG, München Dieser Beitrag ist als ein Beitrag aus der Praxis des Industriekonzerns zu verstehen, der sich mit der Befriedigung von Kundenbedürfnissen beschäftigt, wobei dieser Prozess am Beispiel des Mobiltelefons dargestellt werden soll. Der Konsument soll in das Zentrum der folgenden Betrachtungen gestellt werden, was sich auch in der inhaltlichen Gliederung widerspiegelt. Zunächst wird ein Überblick über den Konsumenten im modernen Mobiltelefonmarkt gegeben, dann folgt die Darstellung einer bedürfnisorientierten Segmentierung der Konsumenten und schließlich wird diese anhand zweier beispielhaft herausgegriffener Segmente detailliert.
Der Konsument im Mobiltelefonmarkt Bekanntermaßen ist das Mobiltelefon innerhalb kürzester Zeit zu einem omnipräsenten Gerät geworden, das den Menschen in allen Lebenssituationen begleitet und unsere Kommunikationsformen wesentlich geprägt hat. Wer „Generation Golf“ von Florian Illies gelesen hat, weiß, wie vielfältig sich dieser Umstand äußert. Den Begriff „ich rufe dich nachher auf dem Festnetz zurück“ gab es beispielsweise vor zehn Jahren einfach nicht. Das hieß schlicht „ich rufe dich auf dem Telefon an“. Heute benutzt man „Telefon“ für „Mobiltelefon“ und „Festnetz“, wenn man tatsächlich das festverkabelte Telefon meint.
116
Jens-Thomas Pietralla
Bild 1
Es ist wichtig, dass wir dieses Wachstum entsprechend beherrschen. Diese Grafik zeigt das Verhältnis von mobilen Subscriptions zur Bevölkerung in verschiedenen Industrieländern (Bild 1). Deutschland liegt mit 79 % mobiler Penetration im guten Mittelfeld. Die Skandinavier liegen sehr weit vorne, während die USA noch etwas hinterherhinken.
9 Begeisternd und mühelos zu bedienen: Mobile Endgeräte für den Menschen
117
Bild 2
Wenn man fragt, welche Anwendungen tatsächlich bevorzugt genutzt werden, so ist die Anwendung Nr. 1 leicht zu erraten: Das ist natürlich Sprache. Die Anwendung Nr. 2 ist wahrscheinlich auch noch offensichtlich. Wie hier dargestellt, handelt es sich um die SMS (Bild 2). Die nächste regelmäßig genutzte Anwendung ist die Adressbuchfunktionalität, also das Abspeichern persönlicher Daten. Dann folgen viele weitere Funktionalitäten wie die Kamera, MMS, Musik und zu einem noch sehr kleinen Teil die location-based Services. Dieses Gesamtbild ist natürlich ein Wechselspiel zwischen der bereitgestellten Funktionalität bzw. den Serviceangeboten einerseits, und der Nutzungsbereitschaft sowie der Leichtigkeit der Benutzung durch den Anwender andererseits. All diese Aspekte müssen zusammenspielen, damit eine Anwendung tatsächlich von der breiten Masse der Konsumenten genutzt wird. Das ist der Grund, weshalb z.B. die Nutzung von MMS zwar sehr stark zunimmt, aber eben Zeit braucht, bis sie wirklich als Breitenanwendung tragbar ist.
118
Jens-Thomas Pietralla
Bild 3
Wenn ein Hersteller ein neues Mobiltelefon entwickelt, hat er eine Reihe von verschiedenen Inputfaktoren zu berücksichtigen (Bild 3). Zum einen geht der technologische Stream in die Überlegungen ein, was bei diesem Beitrag allerdings nicht im Mittelpunkt stehen soll. Des Weiteren sind die Anforderungen der Netzbetreiber von Bedeutung, die vor allem darauf abzielen, Umsatz zu erzeugen – und zwar zunehmend über Daten und Personalisierung. Außerdem gibt es den Wettbewerb, der im Hinblick auf Technologien, Formfaktoren und Trends im Allgemeinen zu analysieren ist. Schließlich und als wichtigster Inputgeber kommt der Konsument selbst zum Tragen, der verstanden werden will in seinen heutigen Bedürfnissen, aber auch in den künftigen Trends, die natürlich nicht immer leicht vorherzusagen sind.
9 Begeisternd und mühelos zu bedienen: Mobile Endgeräte für den Menschen
119
Bild 4
All das geschieht in der Mobiltelefon- oder überhaupt in der Kommunikationsindustrie in einem rasanten Tempo, wesentlich schneller als man es über die Jahrzehnte der Automobilentwicklung erleben konnte. Als Henry Ford im Jahr 1913 sein Fordmodell T auf den Markt brachte, war dies das Auto, das es zu kaufen gab und er sagte: „Sie können mein Auto in jeder beliebigen Farbe haben – sie muss nur schwarz sein“ (Bild 4). Es gab also genau eine Variante dieses Ford Modell T. Heute hat man z.B. beim BMW die Wahl zwischen dem 1er bis hin zum X5 oder Z8. Es ist also zu einer wahnsinnigen Auffächerung der Modellpalette gekommen. Zusätzlich hat man die Möglichkeit, Varianten zu bestellen. Allein dadurch, dass der Kunde Felgen, Lenkrad, Lederausstattung und andere Elemente in genau der Art und Weise kombiniert, die ihm am angenehmsten ist, ergeben sich leicht 50.000 verschiedene Designvarianten. Das ist Mass Customization, und das spielt natürlich auch zunehmend in der Welt des Mobiltelefons eine Rolle. Wir haben es nicht nur mit einem Menschen in der digitalisierten Umgebung zu tun, sondern mit vielen Individuen, und wir müssen versuchen, diese zu verstehen und ihre Bedürfnisse zu analysieren.
120
Jens-Thomas Pietralla
Nutzenbasierte Kundensegmentierung für Mobiltelefone
Bild 5
Wie kann das erreicht werden? Die Frage, die im Vordergrund steht, lautet: „Was will denn der Konsument tatsächlich mit dem Gerät anstellen?“ Dementsprechend haben wir bei Siemens Mobile Devices unsere Segmentierung ausgerichtet (Bild 5). Eine sehr stark demographisch orientierte Segmentierung reicht heute nicht mehr. Hierzu ein praktisches Beispiel: Ich vergleiche einfach einmal meine Mutter und meine Schwiegermutter. Sie haben etwa das gleiche Alter, die gleiche Ausbildung, ähnliche Lebensverhältnisse. Meine Schwiegermutter sagt: „Zeig mir doch bitte, wo der Einschalt- und der Ausschaltknopf sind. Das ist alles, was ich über das Telefon wissen möchte.“ Meine Mutter fragt mich: „Kann man eigentlich auch alle Adressdaten per Blue Tooth von dem Cordless Phone auf das Mobiltelefon übertragen und dabei gleich noch den Geburtstagsreminder einstellen?“ Das sind sehr unterschiedliche Technologieaffinitäten, und diese müssen berücksichtigt werden, auch wenn die rein demographischen Faktoren sehr ähnlich sein mögen. Deshalb kommen zu der Frage, wer der Konsument ist, die Fragen, wann und wo er das Mobiltelefon benutzt und – was noch wichtiger ist – warum? Was sind die funktionalen und emotionalen Bedürfnisse, die die Nutzung eines Mobiltelefons veranlassen? Warum möchte der Kunde dieses Gerät benutzen und wie soll es dann aussehen? Diese
9 Begeisternd und mühelos zu bedienen: Mobile Endgeräte für den Menschen
121
Klammer von dem „warum?“ zum „was?“ ist, was wir in unseren Segmentierungsbemühungen in den Vordergrund stellen.
Bild 6
Konkret haben wir eine sehr umfangreiche Studie mit mehr als 6.000 einzelbefragten Konsumenten in neun Ländern durchgeführt (Bild 6). Basierend auf den gewonnenen Daten wurde zunächst eine Faktoranalyse durchgeführt, um herauszufinden, welche Faktoren die Nutzung eines Mobiltelefons beschreiben. So konnten die Konsumenten anschließend anhand einer Clusteranalyse möglichst homogen um diese Faktoren geclustert und zu Gruppen zusammengefügt werden. Es wurden sechs Hauptcluster oder Hauptsegmente gefunden, die dann wiederum in 14 Einzelsegmente unterteilt wurden. Im Folgenden sollen nicht alle diesbezüglichen Daten präsentiert werden, sondern anhand von Beispielen ein kleiner Einblick gegeben werden.
122
Jens-Thomas Pietralla
Bild 7
Die Clusterung kann wie folgt aufgespannt werden (Bild 7): Von links nach rechts wird die Einstellung gegenüber dem Mobiltelefon beschrieben – links eine rationale, funktionale Einstellung, rechts eine sehr viel enthusiastischere, emotionale Haltung. Auf der vertikalen Achse ist die Einstellung gegenüber der Technologie abgetragen – oben die enthusiastische Hinwendung zur Technologie, unten eine mehr skeptische, abwartende Haltung. Auf der linken Seite ist das Telefon also ein Werkzeug, auf der rechten Seite ist es ein Objekt, oftmals ein Objekt der Begierde. Diese Spanne muss adressiert werden.
9 Begeisternd und mühelos zu bedienen: Mobile Endgeräte für den Menschen
123
Bild 8
Dieser Ansatz soll anhand eines Beispieles aus der Automobilindustrie verdeutlicht werden (Bild 8): Die Segmentierung ist hierzu auf die Produkte des Volkswagenkonzerns übertragen worden. Auf der linken Seite erscheinen eher funktionale Produkte, also ein Kombi, Passat oder –etwas technologieaffiner – ein Sharan. Auf der rechten Seite wird der Objektcharakter deutlich. Das kann in der technologischen Ausprägung in Form eines Lamborghini der Fall sein. In der vielleicht etwas weniger technologischen Ausprägung äußert sich das als Beetle, der davon lebt, dass er Retrogefühle an die „gute alte Zeit“ mit dem Volkswagen Käfer wachruft.
124
Jens-Thomas Pietralla
Bild 9
Diese Abbildung (Bild 9)zeigt das Ergebnis unserer Segmentierung auf der höchsten Kondensationsebene. Es sind die bereits erwähnten sechs Cluster zu erkennen. Unten links erscheint das neue und an Bedeutung zunehmende Reassurance Segment, das im weiteren Verlauf noch ausführlicher dargestellt werden wird. Hier geht es darum, einfach zu bedienende und Sicherheit vermittelnde Technologien bereitzustellen. Darüber liegt das Efficiency Segment. In der Mitte, im unteren Bereich der Abbildung taucht das Connection Segment auf: weniger technologielastig, dafür stärker emotional besetzt. Das entspricht in etwa dem typischen „Sex and the City“ Publikum. Im darüber liegenden Segment „Work & Life“ geht es in erster Linie um eine gepflegte, kultivierte Art, mit Kommunikation umzugehen. Man stelle sich hier Peter Ustinov oder Mario Adorf vor. Das weiter rechts angrenzende Exploration Segment legt sehr viel stärkeren Wert auf Design. Hier würde bspw. ein Karl Lagerfeld geführt. In der rechten oberen Ecke gibt es schließlich das Obsession Segment, das zwar noch nicht sehr groß ist, in dem aber diejenigen Konsumenten vertreten sind, die wirklich als „Freaks“ Innovationen vorantreiben und auf diese Art und Weise ihren Status demonstrieren wollen. Das ist ein Status, der sich heute nicht mehr nur in Nadelstreifen ausdrückt, sondern sehr wohl auch der Status des Ravers oder der Status des Skateboarders – ein Status also, der sehr unterschiedliche Dimensionen annehmen kann
9 Begeisternd und mühelos zu bedienen: Mobile Endgeräte für den Menschen
125
Das Reassurance Segment: Simplicity und Security
■
■
■
■
■
■
■
■
■
■
■
■
■ ■
■
■
Bild 10
Im linken, unteren Segment, dem Reassurance Segment, gilt: ein Telefon ist nur ein Telefon (Bild 10). Die funktionalen Bedürfnisse der Zielgruppe sind im wesentlichen Qualität und Haltbarkeit, sicherlich eine gewisse Preissensibilität sowie eine Benutzeroberfläche, die allein schon in der Größe sowie in der Bedienbarkeit der Tasten überzeugt, aber auch und vor allem in der Benutzerführung. Sie sollte keine Überraschung beinhalten, sondern idealerweise auf Konzepte zurückgreift, die der Nutzer bereits kennt. Das gesamte Produkt sollte nicht überraschen, sondern im Gegenteil für ein „Déjà-vu-Erlebnis“ sorgen, das das Gefühl von Sicherheit vermittelt. Dieses Gefühl von Sicherheit entspricht auch den emotionalen Bedürfnissen der Zielgruppe. Diese Bedürfnisse drehen sich sehr stark um die Themen Sicherheit und Gesundheit. Die Bestätigung der richtig getroffenen Kaufentscheidung spielt eine große Rolle, Marke und Design wirken dahingehend, dass sie als Signal für Qualität wahrgenommen werden, ähnlich wie bei der Marke Miele im Haushalt. Traditionelle Werte sind wichtig, zu einem gewissen Grad auch die Historie eines Unternehmens oder eines Produktes. Insgesamt sucht der Konsument hier einen sehr ehrlichen, direkten Ansatz, der nicht verkompliziert und auch nicht dick aufträgt.
126
Jens-Thomas Pietralla
Hinterlegt man die Demographien, so wird deutlich, dass es sich tatsächlich um eine eher ältere und eher preissensible Zielgruppe handelt. Das Entscheidende bleibt aber weiterhin, was der Konsument mit dem Telefon machen möchte und hier können es – wie dargestellt – ganz unterschiedliche Menschen sein, die den gleichen Zugang suchen.
Bild 11
Das bereits mehrfach angesprochene Sicherheitsbedürfnis kann verschiedene Ausprägungen annehmen (Bild 11). Zum einen geht es hier um eine physische Sicherheit, oftmals gesundheitsbezogen, zum anderen um die soziale Komponente. Es geht hier um die Rolle, die Kommunikation in der modernen Gesellschaft spielen muss, nämlich Menschen zusammenzuhalten. Es kann nicht mehr die bäuerliche Großfamilie sein, die für soziale Bindung innerhalb einer abgeschlossenen, beinahe räumlich lokalisierten Umgebung sorgt, sondern moderne Technologie muss helfen, den Slogan von „living apart together“ voranzutreiben. Das heißt, dass die Großmutter auch noch im Altersheim an der Entwicklung ihrer Enkelin teilhaben kann, indem sie bspw. – und es sei es nur passiv – ein MMS-Bild oder einen Videoclip empfängt. Beides muss natürlich so einfach und so gut zu benutzen sein, dass es für die Großmutter auch machbar ist, aber wenn das gelingt, kann man sich vorstellen, wie sehr eine solche Lösung die emotionalen Bedürfnisse, in dem Fall das Adressieren der möglichen Vereinsamung wirkungsvoll befriedigt.
9 Begeisternd und mühelos zu bedienen: Mobile Endgeräte für den Menschen
127
Bild 12
Ein weiteres, sicherlich extremes, und auch eher nischenartiges Beispiel, das aber als Illustration sehr gut geeignet ist, ist die Mobi-Click-Lösung von Vitaphone (Bild 12). Hier wurde ein Mobiltelefon auf drei Tasten reduziert: ein Notruf und zwei programmierbare Tasten, bspw. für die Familie und den Hausarzt. Der Slogan, mit dem hier geworben wird, lautet „Mit einem sicheren Gefühl unbeschwert leben“. Das beschreibt sehr deutlich die Bedürfnisse dieser Zielgruppe, die hier in geradezu extremer Weise abgebildet ist. So extrem können Mobiltelefonhersteller natürlich nicht überall sein, aber Siemens bietet bspw. mit dem A65 ein einfaches, schon im Design sehr klar strukturiertes Telefon an, das genau diese Zielgruppe bedient.
128
Jens-Thomas Pietralla
Bild 13
Die Reaktionen aus der Fachpresse zeigen, dass das Thema „easy to use, simple and stylish“ in der Tat akzeptiert worden ist, sowohl was die Bedienbarkeit der Tastatur des Gerätes als auch was die Benutzeroberfläche in der Menüführung betrifft (Bild 13).
9 Begeisternd und mühelos zu bedienen: Mobile Endgeräte für den Menschen
129
Bild 14
Das Thema Menüführung ist in der Mobiltelefonindustrie eine große Herausforderung, weil sehr viel Funktionalität in extrem kleine Gehäuse verpackt wird. Im Folgenden ist ein Beispiel dargestellt, wie so etwas intelligent gelöst werden kann (Bild 14). Menschen in den meisten Teilen der Welt lesen von links nach rechts und haben besondere Pfade, mit denen sie Dinge normalerweise tun. Wenn jemand also eine Klingeltonmelodie herunterlädt, dann ist die Wahrscheinlichkeit, dass er diese Melodie auf seinem Mobiltelefon als Klingelton einstellen möchte, ziemlich groß. Dem kommt die Menüführung entgegen, indem der Nutzer durch einen multiplen Druck auf die gleiche Taste – in diesem Fall die rechte Menüführungstaste – das durchführt, was er aller Wahrscheinlichkeit nach tun will. Wenn der Nutzer wider Erwarten etwas anderes durchführen möchte, muss er natürlich diesen Menübaum verlassen. Trotzdem stellen wir durch diese Art des von-links-nach-rechts Lesens und wiederholten Drückens der gleichen Taste einen möglichst einfachen Pfad für den wahrscheinlichsten Nutzungscase bereit.
130
Jens-Thomas Pietralla
Das Exploration Segment: Design
Bild 15
Als weiteres Beispiel soll nun das Exploration Segment vorgestellt werden, welches in der Matrix der Kundensegmentierung weiter oben und weiter rechts liegt (Bild 15). Das Telefon gerät in diesem Segment mehr zum Objekt, über das der Konsument sagen kann: „Mein Telefon kommt aus der Zukunft“. Die funktionalen Bedürfnisse dieser Nutzergruppe drehen sich wesentlich um das aufregende Erlebnis der Benutzung sowie die Unterstützung des professionellen, produktiven Verhaltens im Leben. Diese Konsumenten wollen permanent verbunden sein, neue Formfaktoren spielen eine große Rolle und der Show off Effekt kann durchaus wichtiger sein als die tatsächliche Qualität im Hintergrund. Seitens der emotionalen Bedürfnisse geht es darum, Aufmerksamkeit zu erzeugen, sich selbst mit der Mode, den Trends und mit Marken auszudrücken, sich als Persönlichkeit in der Peergruppe und in der Umgebung darzustellen. Natürlich spielt hier auch Status eine große Rolle. Ein Produktbeispiel, das dieses Segment bedient, ist das SL65, ein Slider-Handy, bei dem die Grundidee ist, dass der Formfaktor – also der Schiebemechanismus – nicht einen besonderen funktionalen Nutzen bringt, sondern schlicht als auffallendes Designelement wirkt.
9 Begeisternd und mühelos zu bedienen: Mobile Endgeräte für den Menschen
131
Bild 16
Bei einem anderen Produktbeispiel, dem SK65, das im Segment „Cultivated Work & Life“ anzusiedeln ist, spielt das Design zwar auch eine große Rolle, unterstützt aber in erster Linie die Funktionalität des Telefons (Bild 16). Das Gerät weist eine ausdrehbare QWERTY-Tastatur auf, mit der man E-Mails schreiben kann. Es ist zudem mit einem eingebauten BlackBerry-Client ausgestattet. In beiden Fällen ist Design also wichtig, allerdings einmal als Unterstützung der Funktion, ein anderes Mal als Stilelement für stärker design-orientierte Enthusiasten.
132
Jens-Thomas Pietralla
Bild 17
Zusammenfassend lässt sich sagen, dass wir heute den Konsumentenmarkt sehr viel stärker segmentieren müssen, dass wir die Bedürfnisse im Nutzungsverhalten verstehen müssen und dass es weniger um eine einstellungswertbasierte Segmentierung geht, sondern um eine bedürfnisorientierte Segmentierung, die sowohl die funktionalen als auch die emotionalen Bedürfnisse der Zielgruppe berücksichtigt (Bild 17). Dies wurde am Beispiel des Reassurance Segmentes gezeigt, einer Zielgruppe, die Einfachheit, Sicherheit und soziale Verbundenheit als wesentliche emotionale Bedürfnisse aufweist. Design spielt in allen Zielgruppen eine große Rolle, allerdings in sehr unterschiedlichen Ausprägungen. Das Design als Stilelement befriedigt insbesondere die Bedürfnisse der Konsumenten im Exploration Segment.
10 Haushalts- und Spiele-Roboter als Begleiter und Helfer Prof. Dr. Thomas Christaller Fraunhofer-Institut für Autonome Intelligente Systeme AIS, St. Augustin Ich möchte mit Ihnen gern eine Art Parforceritt durch die Robotik machen und kann natürlich in der Kürze der Zeit nur einige wenige Punkte streifen. In der Vorbereitung auf diesen Vortrag, wobei ich mich herzlich bedanke, in dieser Runde über das Thema Robotik etwas vortragen zu können, hatten wir uns auf Haus- und Spieleroboter als Helfer und Begleiter geeinigt. Ich habe das von mir aus geändert in Service- und Spieleroboter und werde in meinem Vortrag erläutern, warum das der bessere Titel ist. Am Anfang werde ich Sie mit einigen Begriffsbestimmungen konfrontieren, weil es für Roboter teilweise eine europäische und internationale DIN-Norm gibt. Danach werde ich Ihnen zwei konkrete Bereiche, die in einem gewissen Zusammenhang zueinander stehen die sog. Erkundungsrobotik und die Ausbildungsrobotik, in dem letzten Teil werde ich einen Ausblick wagen, wie diese Dinge zusammenhängen, wohin möglicherweise die Reise geht und was das eventuell mit all den Themen zu tun hat, die Sie heute hier in anderen Vorträgen gehört haben.
Bild 1
134
Thomas Christaller
Hier eine Definition von den sog. Industrierobotern (Bild 1). Das sind im Wesentlichen frei programmierbare, servo-gesteuerte, mit mindestens drei Achsen, also sechs Freiheitsgraden, ausgestattete Handhabungsautomaten mit Greifern und Werkzeugen. Sie sind konzipiert für Handhabungs- und Bearbeitungsaufgaben und befinden sich normalerweise in einem ausschließlich professionellen Umfeld, d.h. die Menschen, die mit diesen Industrierobotern umgehen, sind gelernte Facharbeiter oder haben eine spezielle Ausbildung. Außerdem ist der Arbeitsraum dieser Industrieroboter in der Regel menschenfrei, d.h. da ist eine Werkzelle oder ein Zaun herum und außen befindet sich ein dicker roter, nicht übersehbarere Knopf, mit dem man im Zweifel den Roboter anhalten kann, so dass der Roboter in seinen Bewegungsabläufen nicht mit dem Menschen in Konflikt kommt. Das sind eigentlich ganz andere Vorstellungen von dem, was wir aus der besten PR-Abteilung der Robotik ständig zu sehen bekommen, nämlich in den Hollywood Science-fiction Filmen. Das ist weit davon entfernt, und Sie werden vielleicht am Ende meines Vortrags sehen – wie mein Vorredner bezogen auf die Marketingdefinition gesagt hat –, dass man sehr vorsichtig sein muss, was man in einer PR-Abteilung darstellt und was man tatsächlich in der Lage ist zu realisieren. Es gibt also definierte Normen für Roboter. Es gibt Ausbildungsgänge dafür, um solche Roboter zu realisieren, zu konstruieren, zu bauen, einzusetzen, zu installieren und vor allen Dingen auch zu betreiben. Das ist normalerweise für Mobilphone nicht der Fall und auch für den Umgang mit einem PC nicht, aber für Industrieroboter ist das der Fall.
Bild 2
10 Haushalts- und Spiele-Roboter als Begleiter und Helfer
135
Wenn wir in den Bereich Serviceroboter hineingehen, sieht die Situation auf einmal ganz anders aus (Bild 2). Soweit ich weiß, gibt es keine Normen. Es gibt ganz viele informelle Beschreibungen, und das hier ist eine von vielen, die man hier wählen kann. In der Regel wird bei Servicerobotern betont, dass es mobile Systeme sind. Das unterscheidet sie in aller Regel von den Industrierobotern. Und man möchte sie gern autonom haben, wobei das oft unterschiedlich interpretiert wird. Autonomie wird in nächster Näherung verstanden als „die Geräte schleppen eine Batterie mit sich herum und kein Stromversorgungskabel hinter sich her“; sie haben möglicherweise auch eine drahtlose Verbindung zu irgendeinem Server oder zu einer teleoperativen Steuerung. Wenn es hoch kommt, sind diese Systeme in der Lage, Hindernissen selbstständig auszuweichen. Ansonsten müssen sie eine Mission erfüllen, die von dem jeweiligen Auftraggeber oder Nutzer dieses Systems fest und detailliert vorgegeben wird. Natürlich möchte man etwas anders haben. Serviceroboter kommt vielleicht schon eher dem nahe, was man in Sciencefiction oder technikorientierten Zukunftsszenarien zu sehen bekommt, aber meiner Meinung nach ist das heute alles noch nicht so weit. Man kann bei den Servicerobotern auch verschiedene Anwendungsbereiche unterscheiden. Das ist eine etwas unplausible Aufteilung hier, weil bei Servicerobotern noch einmal Serviceroboter selbst vorkommt, aber ein bisschen ist dieses Gebiet so.
Bild 3
136
Thomas Christaller
Die Tabelle stammt aus einer zweijährlich erstellten Studie von der UN und der Weltorganisation für Robotik, bei der es darum geht, die installierten Systeme zum Zeitpunkt der Erstellung dieser Studie und einer Vorhersage für die nächsten vier, fünf Jahre aufzustellen, und zwar in den verschiedenen Bereiche (Bild 3). Hier sehen Sie vielleicht etwas deutlicher, was man in der Szene für Unterschiede macht. Es gibt Reinigungsroboter und Roboter, die in Abwässerkanälen operieren; in der Regel Inspektion, selten Reinigung, weil dazu zu viel Energie benötigt wird; ganz allgemein Inspektionsaufgaben; der Bereich Abbau von Bauwerken, Unterwasserrobotik, Medizinrobotik, eine Art von Assistentenrollstuhl, Kurier- und Nachrichtendienste; dann allgemeine Plattformen, was immer das dann ist. Und es gibt den wichtigen Bereich der Überwachung und der Sicherheit; Guideroboter, so etwas wie Museumsführer, Betankungsroboter, Feuer- und Bombenentschärfungsroboter. In der Waldwirtschaft gibt es Serviceroboter. In der Landwirtschaft gibt es Roboter als Melkmaschinen,. Natürlich gibt es im Labor und für Marketingzwecke Roboter. Im Consumerbereich gibt es Roboter zum Staubsaugen und Rasenmähen. Das ist ungefähr das Gebiet der Servicerobotik, über das wir hier reden. Wenn man sich jetzt einen speziellen Bereich herausnimmt, nämlich die Erkundungsrobotik, gehören auch Rasenmäher und Staubsauger dazu, denn sie müssen über die Grundfähigkeit verfügen, innerhalb einer Wohnung oder eines Gartens zu navigieren und sich selbst zu orten. Insofern müssen sie natürlich ihre Umgebung auch erkunden. Gleichzeitig ist ihre Funktion damit verbunden, während des Erkundens auch die Aufgabe des Staubsaugens oder Rasenmähens erfüllen. Interessant ist, dass man heute schon solche Roboter kaufen kann, sowohl Staubsauger als auch Rasenmäher. Wenn man dann aber die Bedienungsanleitung genauer durchliest oder sie tatsächlich einsetzt, wird man feststellen, dass diese Systeme eine Veränderung ihrer eigenen Umgebung benötigen, d.h. man muss als Nutzer in der Wohnung Klebestreifen oder im Garten Drähte verlegen, damit die Roboter genau innerhalb dieser Grenzen bleiben und nicht etwa über Treppenabsätze stürzen oder sich unter ein leicht schräg geneigten Spalt zwischen Fußboden und altdeutschen Kleiderschrank zu verstecken versuchen und klemmen bleiben oder aus Versehen die Lieblingsblumen der Kinder abmähen oder beim Nachbarn irgendetwas beschädigen. Man muss dafür sorgen, dass der Einsatzbereich des Roboters klar definiert ist, und man muss ein Verständnis dafür entwickeln wie so ein Roboter tatsächlich funktioniert. Ansonsten geht das wunderbar. Die Roboter fahren dann los, entweder über den Rasen oder über den Fußboden. Allerdings haben sie in der Regel keinen Plan, also keinen Grundriss der Wohnung oder des Gartens. Auch ansonsten haben sie wenig Intelligenz, d.h. sie sind nicht in der Lage, irgendwelche Objekte tatsächlich zu erkennen, in dem Sinne, dass sie ein Tischbein von einem Esstisch oder eine Couch erkennen können, sondern sie werden alles, was zu nah in ihren Sensorbereich kommt, als Hindernis interpretieren. Sie haben dann eine Zufallsstrategie: sobald sie an ein Hindernis stoßen, fahren sie zurück, verändern ein Stückweit ihre
10 Haushalts- und Spiele-Roboter als Begleiter und Helfer
137
Ausrichtung und fahren einfach wieder los. Die Hoffnung ist, dass sie mit einem solchen stochastischen Verhalten nach irgendeiner gewissen endlichen Zeit entweder den Rasen gemäht oder den Fußboden fertig gesaugt haben. Das kann allerdings lange dauern. Wir haben das in Simulation ausprobiert. Sie sind nicht davor gefeit, dass der Roboter 90 % seiner Zeit auf 10 % der Fläche zubringt und diese dauernd mäht oder Staub saugt.
Bild 4
Das ist der Stand der Technik an dieser Stelle. Sie sehen hier auch Stückzahlen. Im Jahr 2003 sind 610.000 Einheiten Staubsauger/Rasenmäher weltweit verkauft worden in einem Gesamtwert von rund 1,3 bis 1,4 Milliarden US $ (Bild 4). Im professionellen Bereich sieht es etwas anders aus. Wenn man dort alle Serviceroboter zusammenzählt, sind das deutlich weniger, aber ungefähr doppelt so viel im Wert. Diesem professionellen Bereich kann man auch den Bereich Erkundungsroboter zuordnen. Interessant für die Technologieentwicklung ist natürlich, dass diese Erkundungsroboter auch deutlich hoch preisiger sind.
138
Thomas Christaller
Bild 5
Ich werde Ihnen gleich ein Beispiel dafür geben, was man darunter verstehen kann (Bild 5). Wir selbst realisieren in einem BMBF-geförderten Vorhaben zusammen mit Partner, Forschungszentrum Informatik Karlsruhe, der rhenag AG und Hitzel, einem kleinen Sondermaschinenbauer die Plattform, die Sie dort unten links in der Folie sehen: Makro. Dies ist ein mehrelementiges System. Es hat sieben Elemente, ist wie ein Zug mit Wagons angeordnet, mit einem Triebwagen vorn und hinten, d.h. er ist symmetrisch aufgebaut und kann gleichermaßen vorwärts und rückwärts fahren. Die Gelenke zwischen diesen Segmenten sind aktiv, so dass es sich in drei Dimensionen bewegen kann und somit 18 Freiheitsgrade der Bewegung hat. Er kann in Abzweige hineingehen, kann über Versatze steigen bis zu 30 cm. Hintergrund dafür ist folgendes: In Deutschland gibt es ca. 400.000 km kommunale Abwasserrohre, was ungefähr anderthalbmal die Entfernung Erde-Mond und zurück ist, wovon 80 % nicht begehbar sind. Heute gibt es dort kein Fernsehprogramm aber TV-Kanalwagen, die teleoperativ gesteuert Plattformen in diese Kanalrohre hineinbringen und für viel Geld, 5 Euro pro laufenden Meter, die rohre inspizieren, und zwarmithilfe einer fahrbaren Lafetten mit Farbbildkamera während auf der Straße in einem ausgebauten Lieferwagen der Techniker sitzt und mit einem Joystick die Lafette durch die Kanäle steuert und eine grobe Klassifikation der beobachteten Schäden macht. Die hohen Kosten entsehen durch die hohen Rüstzeiten. Diese Lafetten sind an einem Kabel befestigt und nach rund 100 bis 150 Metern müssen sie diese Lafette komplett zurückziehen, alles abbauen, in den Wagen bringen, den
10 Haushalts- und Spiele-Roboter als Begleiter und Helfer
139
Kanaldeckel schließen, die 100 oder 150 Meter weiterfahren, Kanaldeckel öffnen, Wagen öffnen, die Lafetten herausholen, wieder reinbringen und die nächsten 100 bis 150 Meter usw. Deutlich mehr als 50 % der Arbeitszeit werden dafür aufgebracht.
Bild 6
Aus diesem Grunde hat der Gesetzgeber vorgesehen, dass unsere Kommunen in Deutschland 10 Jahre Zeit haben, um auf diese Art und Weise ihr jeweiliges kommunales Abwassernetz komplett zu 100 % zu inspizieren (Bild 6). Der Gesetzgeber hat die Inspektion einerseits aus Umweltsicherheitsgründen vorgeschrieben, und andererseits, um aus dem Wert der Abwasseranlagen die Abwassergebühr zu berechnen. Sie haben als Bürger das Recht zu wissen, dass diese Abwasserrohre funktionieren, weil Sie sonst, wie bei Mietminderung in der Wohnung, einfach weniger Abwassergebühren zahlen können.
140
Thomas Christaller
Bild 7
Das Gesamtvolumen für die Inspektion beträgt 1,6 Milliarden Euro (Bild 7). Unsere Visionverspricht, dass man bei Robotern ohne Kabel, über das die Stromversorgung realisiert wird und die teleoperative Steuerung wegfällt, nur noch ein Viertel der Kosten anfallen für mindestens dieselbe Leistung. Das setzt aber voraus, dass diese Roboter in diesen Kanälen alles überleben können, was in einem Kanal vorkommt. Aus eigener Anschauung kann ich Ihnen sagen, dass Sie in einem Kanal alles finden, was die abwassertechnische Verordnung verboten hat, vom Kinderwagen über Fahrradreifen, den Abfall aus der Frittenbude, das Abwasserrohr des Häuslebauers, der die schwarz in den Abwasserkanal hineingetrieben hat. Ich komme aus Nordrhein-Westfalen, wo in Bergbaugebieten an unmöglichen Stellen Senkungen stattfinden, weil Schächte eingebrochen sind u.s.w. Das ist ein hoch anspruchsvolles Gebiete und bis auf Mikrogravitation ist es fast genauso schlimm wie auf dem Mars, wenn Sie in den Kanal gehen. Ein anderes Beispiel ist Umgebungsdatenerfassung. Bei Gebäuden, Messehallen, Fabrikhallen wollen die Nutzer immer genauer wissen, wie die Gebäude oder Räumlichkeiten tatsächlich innen aussehen. Sie verlassen sich nicht mehr auf die CADZeichnung der Architekten oder von der Bauabnahme her und erst recht nicht mehr darauf, dass jemand mit dem Metermass durch die großen Räume geht und versucht, alles auszumessen. Zum Beispiel im Messebau ist das eine versicherungstechnische Frage, dass Sie die Boxen von den Ausstellern genau positionieren können, wie groß die Sicherheitswege sind usw. Es kommt dabei oft auf wenige Zentimeter an. Eine Idee ist, die wir auch schon mehrmals durchgeführt haben, dass man auf eine mobile
10 Haushalts- und Spiele-Roboter als Begleiter und Helfer
141
Plattform einen 3D-Sensor, z.B. einen Laserscanner, aufsteckt und dann mit dem Roboter autonom durch einen solche Halle fährt und die gesamte Halle auf den Zentimeter präzise ausmisst. Dazu sind natürlich zusätzliche Kenntnisse erforderlich wie das Integrieren dieser Laserscans in Abhängigkeit vom Standort des Roboters, der autonom fährt, aber nicht nach einem solchen stochastischen Verfahren wie ich vorhin die Staubsauger und Rasenmäher charakterisiert habe, sondern eher systematischer. Es ist trotzdem noch ein großes Problem, diese Sensordaten zu integrieren und ein hoch präzises fehlerkorrigiertes 3D-Modell einer solchen Räumlichkeit zu bekommen. Wir haben bei mir im Institut entsprechende Verfahren entwickelt und erfolgreich eingesetzt. Sicherheitssystemen und Sicherheitsrobotik stellen ein schwieriges Feld dar. In den USA wird das häufig vom Militär her angestossen. Es gibt aber auch in anderen Gegenden der Welt wie z.B. in Japan großes Interesse daran, Roboter zu entwickeln, die in Katastrophenfällen eingesetzt werden können, z.B. bei Erdbeben. Hier unten habe ich ein kleines Video von der BBC, wo verschiedene Roboter gezeigt werden, die in rauen Umgebungen versuchen durch Halbtrümmerwüsten zu kommen. Sie sehen verschiedene Antriebssysteme, Kettenfahrzeuge, Räderfahrzeuge usw. Man kann auch Laufmaschinen dafür entwickeln. Die Roboter gehen als Sensorplattform in eine Wohnung hinein und versuchen, möglichst überlebende Opfer zu finden und mit diesen Kontakt aufzunehmen und vielleicht eine Erstversorgung vorzunehmen, wie Trinkwasser zu bringen. Das ist eine hohe Herausforderung an die Morphologie dieser Roboter an das Antriebs- und Fortbewegungssystem. Es gibt dort keine einfachen Lösungen.
Bild 8
142
Thomas Christaller
Ich komme nun zu dem zweiten Bereich, den ich Ihnen heute vorstellen möchte, der Ausbildungsrobotik (Bild 8). Das ist scheinbar ein völlig anderer Bereich. Sie sehen hier einige Beispiele – das mittlere wird Ihnen bekannt vorkommen; es ist das Lego Mindstormsystem. Der Grundgedanke dieser Ausbildungsrobotik ist, etwas über Roboter zu lernen dadurch, dass man Roboter baut. Mein Hintergrund ist Informatik, und ich habe vor über zehn Jahren angefangen, mich für Roboter zu interessieren und dabei festgestellt, dass der Bau von Robotern hochgradig und zwangsläufig interdisziplinär ist. Wenn Sie nur Informatik können, kommen Sie nicht zu Rande. Heute ist es auch so, dass Maschinenbauer, Elektrotechniker, Materialwissenschaftler oder Physiker nur Teilwissensgebiete beherrschen, um am Schluss ein funktionsfähiges, realisierbares, bezahlbares und nützliches technisches System zu realisieren. Wir haben in einer größeren Community, die das seit acht Jahren betreibt, die Erfahrung gemacht, dass Kinder große Freude am Roboterbau haben. Wenn man das richtig macht, lernen sie außerdem systematisch eine Menge Mathematik, Physik, Technik und über ihre eigene Kreativität im Gestalten von technischen Systemen.
Bild 9
Wir haben 2000 zu diesem Punkt eine Marktstudie gemacht und da sind folgende Informationen herausgekommen, die auch heute vier Jahre später noch zutreffen (Bild 9). Der Markt für Industrierobotik wächst ungefähr um 10 % weltweit. Es gibt einen starken Ausbildungsbedarf. Es ist klar, dass diese Servicerobotik wie z.B. Erkundungsrobotik eine Art Schlüsseltechnologie darstellt, die Auswirkungen hat
10 Haushalts- und Spiele-Roboter als Begleiter und Helfer
143
auf viele andere Bereiche und dass man absehen kann, dass solche Roboter Statussymbole sein können. Es gibt dafür Beispiele wie den Aibo von Sony, was wir vorhin bei den Handys auch schon gehört haben.
Bild 10
Wenn man sich das von der Marktseite her anguckt, so kann man für Deutschland aufgrund einer VDI-Studie vom letzten Jahr sagen, dass jährlich 20.000 ausgebildete Ingenieure fehlen (Bild 10). Die Zahl mag bei rund 83 Millionen Einwohner keinen erschrecken. Man wird aber stutzig, dass jedes Jahr nur 40.000 Ingenieure die deutschen Hochschulen verlassen, d.h. man müsste den Output an allen Fachhochschulen und Universitäten im Ingenieurbereich um 50 % sofort, umgehend und dauerhaft steigern, um diesen Bedarf abzudecken. Was geschieht, wenn der Bedarf nicht abgedeckt wird, will ich nicht weiter ausführen. Wenn man sich die Zahlen genau anschaut, stellt man auch fest, dass im Ingenieurbereich im Schnitt nur 12 % Frauen, das studieren, noch weniger praktizieren es. Wenn man darüber nachdenkt, wie die PISA-Studie und die TIMS-Studien in Deutschland ausfallen, bekommt man noch grauere Haare. Wir haben uns deshalb Gedanken darüber gemacht, wie man vielleicht, nicht sofort im großen Maßstab, aber Schritt für Schritt, eine Perspektive entwickeln kann.
144
Thomas Christaller
Bild 11
Hier habe ich noch ein paar Zitate vom Kollegen Christ, vormaliger Präsident vom VDI, zusammengestellt, die für sich selbst sprechen (Bild 11). Er bringt zum Ausdruck, dass man heute Technik nicht um der Technik halber machen sollte und nicht mehr machen darf, weil zumindest in Europa die Menschen das nicht so wollen. Es ist wichtig zu sehen, dass Frauen bei Technik und Technologien eine große Rolle spielen, und zwar nicht nur als Konsumenten, sondern als Mitgestalter mit eigener Phantasie und Kompetenzen, um Entwicklungen zu betreiben. Aus diesem Grunde plädiert er dafür, sich maßgeblich darum zu kümmern, dass möglichst viele Frauen Ingenieurberufe ausüben. Wir wissen aber auch, dass Menschen an der Universität sich schon längst für ihre Studienrichtung entschieden haben. Man muss bereits an der Schule anfangen. Das haben wir begonnen, und ich werde es Ihnen gleich erläutern. Zuvor will ich Ihnen einige Videos über die Kreativität von Kindern und Jugendlichen beim Bau von Robotern zeigen. Seit 1997 gibt es die Robocup-Federation, die einmal im Jahr internationale Wettbewerbe durchführt. Es gibt dort eine Juniorleague, wo inzwischen weit über 200 Gruppen von Jugendlichen sich bei diesen Wettbewerben zusammenfinden. Sie kommen aus aller Welt. Ich habe vom Jahr 2003 zwei kleine Clips mitgebracht.
10 Haushalts- und Spiele-Roboter als Begleiter und Helfer
145
Video-Vorführung Dieses Beispiel zeigt, dass die Kinder, wie hier drei Mädchen, aus freiem Material zwei Roboter gebaut haben; eine komplette Choreographie gemacht haben und innerhalb von einer Woche alles zusammengebaut, programmiert und zu einer solchen Show zusammengestellt haben.
Bild 12
Als nächstes zeige ich Ihnen zwei 14jährige japanische Jungen, die eine Jazzkapelle gebaut haben aus Legomindstormkästen, dazu selbst auftreten und mit den Robotern zusammen agieren (Bild 12). Dieser Wettbewerb ist ausgesprochen erfolgreich. Die Zahlen der teilnehmenden Jungendlichen wachsen jährlich. Wer von Ihnen im April kommenden Jahr Gelegenheit hat, ins Heinz Nixdorf Museumsforum in Paderborn zu den Robocup German Open zu kommen, sollte dies unbedingt tun. Da kann man sehen, wie Kinder und Jugendliche Roboter bauen und verschiedene Aufgabenstellungen erledigen. Sie können gleichzeitig sehen, wie Nachwuchswissenschaftler, Studenten und Professoren an etwas größeren, komplexeren Robotern bauen, um dann mit denen z.B. Fußballspiele durchführen zu lassen.
146
Thomas Christaller
Bild 13
Wir haben hier auch ein BMBF-gefördertes Vorhaben „Roberta“; das zum Anliegen hat, in der Sekundarstufe II speziell Mädchen anzusprechen und herauszufinden, wie man mit entsprechend aufbereitetem didaktischen Material und Ansprache dafür sorgen kann, dass Mädchen großes Interesse und auch Kompetenzen entwickeln, um Roboter zu realisieren und dabei alle anderen Fähigkeiten anzueignen, die man zum Roboterbau braucht (Bild 13).
Bild 14
10 Haushalts- und Spiele-Roboter als Begleiter und Helfer
147
Wir haben inzwischen mehrere Kurse durchgeführt und dabei auch viele Lehrerinnen und Lehrer trainiert, so dass sie in der Lage sind, selbstständig solche Kurse durchzuführen (Bild 14). Das Ergebnis hier unten links ist das Wichtige: über 94 % aller beteiligten Schülerinnen und Schüler hat es einfach Freude gemacht, an einem solchen Roberta-Kurs teilzunehmen. Wer jemals in der Sekundarstufe II gewesen ist, weiß, was es heißt, wenn 94 % aller Schülerinnen und Schüler von einem Unterricht begeistert sind. Über 88 % würden diesen Kurs ihren Freundinnen und Freunden weiter empfehlen, und 72 % würden gern zusätzliche Kurse nehmen. Wir haben auch Daten darüber, dass das Selbstbewusstsein vor allem der Mädchen nach einem solchen Kurs signifikant gestiegen ist, so dass sie sich vorstellen können, zumindest Informatik zu studieren. Ich habe hier noch einen kleinen Videoclip vom Kanzlerfest in diesem Sommer, wo unser Bundeskanzler Schröder einige Schülerinnen begrüßt, die an dem Robertaprojekt teilnehmen. Zum Schluss bekommt er einen Roberta-Roboter geschenkt. Sie sehen eine typische Aufgabe, die man mit einem einfachen Roboter machen und so schon viel vermitteln kann, nämlich einfache Wandverfolgung und Hindernisvermeidung. Es ist natürlich nicht aufregend für jemand, der das alles kennt, aber für die Kinder sind damit viele Aha-Erlebnisse verbunden. Wir sind dabei, ein Netzwerk in der ganzen Bundesrepublik aufzubauen, sogenannte Regiocenter, so dass dieses Konzept greifen kann und sukzessive auch in den Schulen weiter hinuntergeht von der Sekundarstufe II in Sekundarstufe I und möglicherweise sogar in die Grundschule hinein. Wir sind der Meinung, dass man diese Investition machen muss, und wir glauben auch, dass das ein Markt ist; nicht so sehr deshalb, weil die Schulen Geld haben. Aber meistens haben die Elternvereine und Fördervereine Geld und wenn die einmal gesehen haben, was man mit solchen Mitteln im Unterricht bei den Kindern bewirken kann, sind sie gern bereit, auch dafür Geld in die Hand zu nehmen.
148
Thomas Christaller
Bild 15
Wir haben uns selbst bei der Robocup-Federation seit vielen Jahren beteiligt und haben dazu auch eine Plattform entwickelt, die wir inzwischen auch an Forschungseinrichtungen, Universitäten, Fachhochschulen verkaufen, um Ausbildung im Bereich mobile Roboter zu machen (Bild 15). Das ist ein deutlich professionelleres System als Lego Mindstorms. Sie sehen das auch wieder beim Sommerfest im Kanzleramt, wo Bundeskanzler Gerhard Schröder gegen unseren VolksBot antritt und Fußball spielt. Wir werden gleich sehen, dass das für beide nicht schlecht ausgeht. Beim ersten Mal hält der Roboter. Dann kommt aber der gewiefte Fußballspieler und Politiker, täuscht an, trifft und schießt ein Tor; also 1:1 im Wettkampf zwischen Bundeskanzler und VolksBot. Hinter diesemVolksBot steckt ein Konzept, wie man durch Modularisierung die Komplexität steigern kann und von einem einfachen Einstieg bei zunehmender Kompetenz selbst die Komplexität dieser Systeme steigern können.
10 Haushalts- und Spiele-Roboter als Begleiter und Helfer
149
Bild 16
Was habe ich Ihnen dargestellt? Ich habe Ihnen gezeigt, dass die Haushaltsroboter zwar schon in großen Stückzahlen am Markt sind, aber auch erklärt, dass sie nur eingeschränkt einsetzbar sind (Bild 16). Es spielt eine große Rolle in diesem Markt, dass diese Systeme robust sind und wenig Geld kosten. In der Erkundungsrobotik haben wir ein bisschen das umgekehrte Bild, geringe Stückzahlen, eine sehr raue Umgebung, in denen die funktionieren müssen. Robustheit steht hier auch an vorderster Stelle. Es ist aber ein Gebiet, wo man Hightech entwickeln kann. Die Ausbildungsrobotik ist m.E. der Teil, der als Speerspitze für die gesamte Servicerobotik funktionieren kann. Nicht nur deshalb, weil wir die nächste Generation ausbilden, die dann eine stärkere Affinität und auch Kompetenz im Bereich Robotik entwickelt, sondern auch im ausprobieren von Konzepten in der Roboterkonstruktion. Es gibt einen Markt dafür, den Bildungsmarkt. Diese Ausbildungsroboter zeichnen sich durch Flexibilität, Attraktivität im Aussehen und durch niedrige Kosten aus.
150
Thomas Christaller
Bild 17
Mein Ausblick ist folgender (Bild 17): mein Institut hat die Bezeichnung Autonome Intelligente Systeme, und ich will Ihnen nicht verhehlen, dass ich auch eine Vorstellung von Autonomie und Intelligenz habe. Autonomie bedeutet für mich selbstständig, aber zusammen mit anderen Robotern und Menschen zu handeln. Das sollen die Roboter können. Intelligenz bedeutet im Wesentlichen Vorhersage der Handlungsmöglichkeiten von Robotern und Menschen. Das ist natürlich insbesondere in der direkten Interaktion, die man als Zukunftsvision bei vielen auf Folien steht und ich Ihnen bewusst nicht gezeigt habe, zwingend erforderlich, dass Roboter in der Lage sind, die Intention von Bewegungsabläufen von Menschen gut genug vorherzusagen, um sich schnell genug auf Bewegungsabläufe des Menschen einzustellen und sich dazu komplementär oder kooperativ zu verhalten. Dazu ist es zwingend notwendig, dass man in dem Bereich schnelle sensormotorische Rückkopplungsschleifen einsteigt und das im Millisekundenbereich beherrscht, diese komplexen mechatronischen Systeme reagieren lassen kann. Und dass man, damit die Systeme sich wirklich autonom verhalten können, dafür sorgt, dass die nicht nur die sensorischen Daten benutzt, um ein möglichst menschengerechtes Weltmodell zu realisieren, sondern ein auf ihren eigenen Fähigkeiten basierendes Weltmodell zu bauen, dass sie genau dieser sensomotorischen Schleife dafür zugrunde legen. Es gibt große Förderprogramme zu diesen Forschungsthemen in den USA, Japan und Korea mit unterschiedlichen Zielsetzungen. In Europa sieht es für mich ein bisschen so aus, als ob für die Grundlagenforschung eine schwierige Situation da ist,
10 Haushalts- und Spiele-Roboter als Begleiter und Helfer
151
weil man sieht, dass der Servicerobotikmarkt insgesamt klemmt und sich nur langsam bewegt. So lange wir in Europa offensichtlich nicht klar sehen, wo die Anwendungen sind, zögern wir, in die Grundlagenforschung zu gehen, was aber m.E. sehr gefährlich ist. Der letzte Punkt ist, dass viele technische Systeme, die wir heute gar nicht als Roboter betrachten, tatsächlich schon Roboter sind, nämlich Autos, Flugzeuge, Lokomotiven, Schiffe, Produktionsanlagen, intelligente Häuser und eben auch Spielzeug.
11 Diskussion
Moderation: Prof. Eberspächer, TU München Prof. Eberspächer: Vielleicht beginne ich mit einer Frage an meinen Nachbarn zur Linken. Eigentlich ist es doch so, dass viele Fragen in dem Umfeld, die wir heute diskutiert haben, sich erledigen, denn wenn die jetzige junge Generation oder auch die davor allmählich Senioren werden, kann man dann nicht davon ausgehen,, dass der Digital Gap sich schließt, oder ist das Problem in jeder Generation immer wieder dasselbe? Dr. Pietralla: Das ist eine sehr gute Frage, und die Antwort ist teil-teils. Teils insofern ja, diese Lücke schließt sich, weil natürlich die Affinität zur Benutzung von bestimmten Grundlagen und Technologien wie dem Computer, Internet, sicherlich in der Generation nach 20 Jahren gegeben ist. Aber nein insofern, dass die Technologiepipeline sich wieder neu auffüllt und auch weil mehr physische Einschränkungen des alternden Menschen beispielsweise erhalten bleiben, d.h. das Nachlassen der Sehfähigkeit, die Feinmotorik u.ä. müssen natürlich nach wie vor berücksichtigt werden. Von daher wird die Herausforderung an uns, wirklich zielgruppengerecht Technologie immer wieder am Menschen auszurichten, erhalten bleiben. Prof. Eberspächer: Vielen Dank. Hat sich jetzt schon jemand zu einer Frage entschieden. Bitte schön! Herr Butz, LMU München: Das geht an die Herren Wahlster und Christaller. Und zwar haben wir jetzt über Interaktion mit verteilten Systemen gehört. Wir haben gelernt, dass man mit Nudelpackungen reden kann und auf vielfältige Art und Weise mit diesen verteilten Rechnern interagieren kann. Herr Christaller, Sie haben sehr schön dargestellt, dass eigentlich Robotik eine Fortführung dieser Idee von verteilten Computern in unserer Umgebung ist. Welche Spezifika sind bei der Interaktion zu beachten? Was unterscheidet die Mensch-Roboter-Interaktionen von der Mensch-Computer-Aktion allgemein? Prof. Christaller: Das ist ein Stück weit eine Glaubenssache. Man kann immer abstrakt für das Eine oder das Andere argumentieren. Meine Position ist folgende: In dem Moment, wo wir Roboter realisieren, die genügend komplexe Bewegungsabläufe durchführen,
154
Moderation: Prof. Eberspächer
wird das nicht mehr so funktionieren in der Interaktion zwischen Menschen und Robotern, dass wir Menschen den Robotern klar die Bewegungstrajektorien programmieren. Das ist unmöglich. Im persönlichen Umfeld geht das überhaupt nicht. Wir müssen ein Engineering entwickeln, wo wir nur noch die Randbedingungen für die Entwicklung eines Bewegungsteuerungsprogramms in dem Roboter realisieren. Der Roboter muss dann in der Umgebung, in der er eingesetzt wird, tatsächlich lernen oder sich anpassen wie die Bewegungsabläufe dann konkret aussehen. Eine große Herausforderung wird genau die sein, dass beide Seiten, sowohl der Mensch als auch der Roboter, in der Lage sind, die potentiellen Bewegungsabläufe in der nächsten Sekunde des jeweils anderen gut vorherzusagen. Wenn ein Roboter einen Arm hat, der gut versteckt im Gehäuse des Roboters ist und der zwei Meter weit recht, 100 kg schwer ist, dann ist es für den Menschen ausgesprochen schwierig, vorherzusagen, was passiert, wenn er eine Tasse Kaffee gereicht haben will. Umgekehrt, wenn der Roboter nicht in der Lage ist zu verstehe, wie Menschen sich überhaupt bewegen können, dass ein spontanes Aufstehen und Tanzen z.B. keine gefährliche Situation ist, sondern ein Ausdruck von Lebensfreude, werden wir auch einen langen Weg gehen, um dorthin zu kommen. Für routinisierte Bewegungsabläufe wie im Industrie Robotikbereich, wo der Mensch explizit ausgeschlossen wird aus dem Bewegungsbereich des Roboters, ist Vieles Vorstellbar. Das ist überhaupt kein Problem. Aber in dem Moment, wo Roboter und Mensch wirklich frei aufeinander losgelassen werden, gibt es ein Problem. Prof. Wahlster: Bei intelligenten Umgebungen im Sinne einer Ambient Intelligence entsteht wie bei der Telephon-Konferenzschaltung oder der Videokonferenz das Problem der Rederechtsvergabe und der Dialoginitiative, das in der englischsprachigen Fachliteratur mit dem Begriff „Turn Taking“ belegt ist. In instrumentierten Räumen mit Hunderten von dialogfähigen Objekten potenziert sich das Turn-Taking-Problem selbstverständlich. Die automatische Erkennung, wer im Dialog angesprochen ist und wer als nächster Dialogpartner reden darf, ist äußerst komplex und wird in der zwischenmenschlichen Kommunikation auf sehr subtile Weise (z.B. durch Blickkontakt, Köpersprache, Prosodie) geregelt. Ich hatte die sprechenden Produkte angesprochen, die in unserem derzeitigen Demonstrator die Dialoginitiative ergreifen, sobald eine Kunde sie aus dem Regal holt. Herr Encarnacao hat als bekanntes Beispiel das Sprachkommando „Licht an“ erwähnt. Sollen dann alle Lampen in einem Raum angehen oder melden sich die einzelnen Lampen und sagen, ob sie mit diesem Kommando gemeint sind? Ein einfaches Beispiel aus der modernen Sprachtechnologie ist das sogenannte „Barge-In“ in Dialogsystem. Heute ist es in den besten Spracherkennungen möglich, dass ich ein System, was gerade spricht, unterbreche und anfange selbst zu sprechen, um das Rederecht zu bekommen. Barge-In ist eine typische Anwendung in Call Centern, um diese benutzerfreundlich zu machen. Wenn das Sprachsystem sehr lange Ausgaben macht, musste man früher all die Ansagen
11 Neue Herausforderungen an Mensch und Maschine – Diskussion
155
abwarten, bis man selbst die Initiative ergreifen kann. Jetzt kann man bei modernen Systemen mit „Barge-In“ jederzeit dazwischensprechen. Stellen Sie sich sprechende Produkte vor; das Produkt macht lange Werbung, ich will aber eine ganz konkrete Frage von dem Produkt beantwortet haben. Dann unterbreche ich einfach den Redefluß des Systems und stelle meine Frage. Dies funktioniert heute technisch in den besten Spracherkennern bereits. So einfach das zunächst klingt, es sind aber noch ganz prinzipielle Fragen des Kommunikationsmanagement in verteilten Umgebungen zu lösen, um eine wirklich menschengerechte und intuitive Kommunikation im Rahmen einer Ambient Intelligence zu schaffen. Prof. Eberspächer: Vielen Dank. Herr Dr. Stein! Dr. Stein: Die Automobilindustrie hat in Deutschland und Europa eine ganz markante Position was Innovationen angeht, auch gerade auf dem Gebiet der Automobilelektronik. Insofern bin ich eigentlich überrascht, dass das Thema des fahrerlosen Autos nicht einmal in einer Perspektive anklang. Herr Christaller hat ganz nüchtern darauf hingewiesen, dass es Einiges gibt, was schon automatisiert ist. Heißt das jetzt, dass dieses Thema noch ein sehr fernes Thema ist oder dass es überhaupt kein Thema ist? Fahrerloses Auto heißt natürlich auch fahrerlose Busse, die immer dieselbe Strecke fahren. Fahrerlose U-Bahn gibt es ja schon. Prof. Christaller: Ich bin bei diesen Sachen immer hin- und hergerissen. Wenn man mit Vertretern der Automobilindustrie spricht, kommt es darauf an, mit wem man spricht. Die einen sind vollauf begeistert, den Autopiloten in das Fahrzeug zu bauen. Die anderen sagen, dass bei der Erwähnung des Autopiloten die Autos nicht mehr an die Kunden zu verkaufen sind. In diesem Spektrum bewegt sich das. Natürlich ist es spannend, und für uns als technikorientierte Wissenschaftler wäre das eine spannende Aufgabe, in diese Richtung bei den Autos mitzuhelfen zu realisieren. Aber ich glaube, die Industrie selbst ist sich noch nicht einig, was sie da haben will. Wenn sie wirklich einen Autopiloten machen, haben sie so etwas wie privaten öffentlichen Nahverkehr; was vielleicht ein gutes Mobilitätskonzept ist. Prof. Eberspächer: Herr Christaller, ich habe dieses Thema auch mit der Münchner Firma schon besprochen und weiß von anderen, die ähnliche Gespräche führen, weil es natürlich auch für die Kommunikation interessant ist. Die Aussage ist klar: „Freude am Fahren“ heisst die Devise! Und Freude am Fahren bekommt man nur, wenn man das Lenkrad selbst in der Hand hat und das Gaspedal bedient. Aber das heißt nicht, dass es nicht in 20, 30 Jahren soweit ist.
156
Moderation: Prof. Eberspächer
Prof. Christaller: Es kann ja auch sein, dass man „Drive by Wire“ macht, aber ein Force Feedback einbaut, so dass der Fahrer glaubt, er würde noch wirklich ein Gaspedal und eine Bremse treten. Prof. Eberspächer: Meine Damen und Herren, mit diesem wunderschönen Ausblick in die automobile Zukunft möchte ich diese sehr interessante Sitzung schließen und allen Rednern danken. Nach der Pause haben wir das Thema, wie der Mensch mit diesen Systemen umgeht und ob wir die Brücke zwischen Technik und Mensch schlagen können, vertieft angehen.
11 Neue Herausforderungen an Mensch und Maschine – Diskussion
Gelingt der Brückenschlag zwischen Technik und Mensch?
157
12 Ambient Intelligence – the European Way for a User Friendly Information Society Dr. Yves Punie Institute for Prospective Technological Studies, Sevilla Let me thank first the Münchner Kreis for inviting me and my Institute to this very interesting conference. I will try to be brief. I will also try to bring some new and additional elements to the discussion, although already many excellent points have been raised today. I will try not to repeat too much of them. But also, I would like to mention the disclaimer that everything I will argue is not under the responsibility of the European Commission but only under my own responsibility.
Fig. 1
Let me very briefly explain to you where my institute is situated and what it does because I think that is important (Fig. 1). We are part of the DG JRC, the Joint Research Centres of the European Commission. There are seven institutes throughout Europe, in five member states. As you can see, there is also one in Germany, in Karlsruhe which is the Institue for Transuraniam Elements. But please
160
Yves Punie
don’t ask me what they do. My institute, IPTS, is based in the south of Spain, in Sevilla. What we do is, providing scientifically grounded prospective technoeconomic analysis of new technologies in support of European policies and decision making. We are a research institute. We are more or less an independent research institute and our major clients are the policy makers in Brussels. We do not make the policies but we try to provide them with scientifically sound background studies on, in our case, what are the major technologies coming up and what are the major issues to be taken into account for European policy making.
Fig. 2
At the Institute for Prospective Technological Studies we deal with different technologies from a prospective point of view, such as transport technologies and technologies for sustainable development (Fig. 2). But I am working in the Information and Communication Technologies Unit on ICT. We use a methodology called FISTE, Foresight on IST in Europe. It is a way of saying that what we try to do is to look at the technological developments and then we try to see what their social and economic impacts are. So, we try to match in a sense, the social and the technology. We do that in different fields, such as e-government, e-health, and ICT in the new Member States. We have many different research projects in all these, and other domains, such as privacy and security. There are also more horizontal researches like the one I am going to present to you now on Ambient Intelligence.
12 Ambient Intelligence – the European Way for a User Friendly Information Society 161
Fig. 3
The objective of my talk is to discuss Ambient Intelligence as one of the key visions of IST research and policy in Europe (Fig. 3). But I am going to be brief on that because many things already have been said. I am going to raise a few challenges and also some bottlenecks for the realization of this vision. One of my major points is then to explain why an everyday life perspective is important for realising Ambient Intelligence.
162
Yves Punie
Fig. 4
Just briefly to remind you, Ambient Intelligence is about computing power that becomes so cheap and so small and so seamless interoperable and so easy to use that it can be applied on all aspects of everyday life (Fig. 4). Several times already today, Moores’ Law has been mentioned. I think what should be emphasised and that is also one of the specificities of Ambient Intelligence compared to Ubiquitous Computing is that is not only about Ubiquitous Computing but also about Ubiquitous Communication and about user-friendly interfaces. I think already one of the specificities of Europe compared to other more isolated approaches is that it has a more integrative, a more systematic view on it. It tries to combine these three core elements rather than just focussing on one of them. One of the origins of the term Ambient Intelligence lies with ISTAG, the Information Society Technology Advisory Group, which is a group of industrials and academics that gives advice to the European Commission IST program, to the European Commission Information Society Technologies program. And ISTAG came actually up with that vision of Ambient Intelligence already in 1999. The vision statement than was that we need to develop a long term view, a long term vision of the challenges and opportunities for sustained global competitiveness of the European IST industry in 2010. That was already mentioned in 1999. And then this was coupled, this visions of Ambient Intelligence to the European Union Lisbon
12 Ambient Intelligence – the European Way for a User Friendly Information Society 163
objective. The ambition is to become the most competitive knowledge society but also socially inclusive and sustainable society in 2010. And actually the vision of Ambient Intelligence is linked to the Lisbon objectives via the IST program, the latter being one of the ways to realise the Lisbon objectives. It is important to note that the AmI vision has already gone through an evolution. It started in 1999 and is not central in the IST Framework Program 6. But from a technology vision, it is also increasingly being linked to addressing the so-called European model, i.e. the specificities and the challenges of the European model. These have to do with growth of the European region, with enlargement of course, with the aging of the population etc. I will come back later to this. To summarise, one could say that today in 2004, Ambient Intelligence is more or less an accepted vision for IST research in Europe. For instance, when you do a search in Google on quote Ambient Intelligence unquote, meaning that you only get results on the two words together, you already have 18.500 replies. And if you don’t group them and just say Ambient Intelligence you have more than 200.000 replies. Just to say that it Ambient Intelligence exists out there.
Fig. 5
So, what is it about? It is about a new approach to IST innovation in Europe (Fig. 5). This can be illustrated when overlooking the different European RTD Framework Programs, from the past until now. Framework Program 4, as it used to be described
164
Yves Punie
happened from 1994 to 1998. It was mainly about technology infrastructure projects such as Esprit and Telematics, i.e. research on the major technology infrastructures. We moved then to FP 5, Framework Program 5 which was labelled for the IST part, the user-friendly information society. FP5 run from 1998 until 2002. But actually it was not really about the user, it was more about developing applications. It was a application oriented research program. Today we are already half way FP6, Framework Program 6, running from 2002 to 2006, and there, Ambient Intelligence is indeed the central paradigm in the IST program. What has changed? Views have changed on how to develop and support technologies. The top down approaches characteristic for the eighties have in the nineties slowly been supplemented by bottom up approaches. But ambient Intelligence is not just about bottom up, it is more about an integrated and systematic approach to innovation, meaning that you combine technology push and bottom up. It is “not only” about the user. It is obviously “also” about the technology, and thus, about the interaction between both. Another change comes from a computing point of view, i.e. the evolution from mainframe to personal computing to multiple computing devices per person. Many slides have been shown today already on that, especially on Moores’ law. This miniaturization enables technology to move to the background so that the user can move to the foreground. That is one of the core aspects of the vision. It is all about machines and computing that adapt to people and not about people that adapt to technologies, as is still the case today. AmI is also about efficiency, context awareness, pro-activity. But all these intelligent devises and services have to be under control. That is important and is also mentioned by ISTAG. In the end, it is all about user empowerment. If you look at the vision it puts a huge and explicit claim on being non-technological. This discourse is a bit strange because we are speaking about a technology research program. IST stands for information society technologies. It is a technology research program that says that technology is not the major issue. I think it is significant, it is important and a big change with the past. But also, it is a claim and the question is now, and this is one of the main messages of my speech, that we have to start realising that claim.
12 Ambient Intelligence – the European Way for a User Friendly Information Society 165
Fig. 6
There is already a report from ISTAG with the title “From vision to reality” (Fig. 6). It starts to explore the idea how we can realise Ambient Intelligence. Already in 2002 it is argued that AmI needs to be specified in different environments, to develop Ambient Intelligence in the home, the car, the personal environment, the enterprise, and AmI in Science and Technology. Related to this approach is arguing that AmI needs to be developed for different application fields like eHealth, eGovernment, education, business. And every time, within each field, is the question is: What can Ambient Intelligence bring? What added value can Ambient Intelligence bring into these specific application fields, like health, like government? But then, and that characterises the specific European way of developing Ambient Intelligence, the question is placed within the so-called European model. If you take the field of health for example, we know that Europe is facing huge challenges. So, what can Ambient Intelligence bring to the challenges Europe is facing in this specific field? Very important, and not so much mentioned today, is that in addition to developing Ambient Intelligence in these different environments, a huge effort is needed to realise interoperability between these different environments. ISTAG came already up with a concept to describe that in 2002. This was called the Ambient Intelligence Space.
166
Yves Punie
Fig. 7
Another very important issue was raised by ISTAG in 2003 and elaborated upon in 2004, namely Experience and Application Research Centres, EARC (Fig. 7). These are presented as a new approach, a new way to user-oriented design, to involve the users from the start and in prototyping and designing new technologies and systems. One of the methodologies for this is called Living Labs. We had a very interesting presentation from Philips today, with results from their HomeLab. EARC is all about usability. It is about design for all. It is about inclusion. But it is more than that. It is not only about usability. It is more than just trying to translate some user requirements into the design. It is trying to involve users in a more substantial way. I am now going to speak a little bit about that. I am going to share with you some ideas based on an everyday life perspective to studying technologies. There exists a lot of user research in the world. There are many different approaches but typical for an everyday approach is that it is qualitative, in-depth, ethnographic research. Studies have been done all over Europe whereby researchers go into the homes of ordinary people, i.e. selecting 20, 30 families. They visit their homes, and speak and discuss with them for hours and hours what kind of technologies they use, how they use them, who uses them, etc. I would like to take some of the results of that kind of research, because I am quite familiar with it, and will try to use it to reflect upon challenges for Ambient Intelligence. One of the examples of that kind of research is called the domestication
12 Ambient Intelligence – the European Way for a User Friendly Information Society 167
approach which says that technologies have to be domesticated like an animal. They have to be house-trained. They have to be adapted to the rules and practices of our everyday life. The first thing that comes out of domestication research is, and sometimes we forget it when we are speaking about the Ambient Intelligence vision, that the everyday life is shaped by structural differences, by inequalities in terms of gender, age, class, and ethnicity. These relations very often determine how we are approaching technologies. A challenge for the AmI vision is to take this into account. How does Ambient Intelligence deal with this?
Fig. 8
I give you some examples. When you speak with people in their everyday lives on their everyday, than it seems housework is one of their major concerns, i.e. cleaning, washing, and ironing (Fig. 8). This was discussed briefly in the presentation on Robotics we had before. But what I want to say is that it is strange that AmI is about everyday computing while the applications that are being developed, the kind of experiments that are being done seem to be far from the everyday. Many are about play, about toys for boys, about playing. Is this really the only concern for people? And what about housework? We seem to be rather poor in imagining innovative applications related to house-work.
168
Yves Punie
Another issue I want to raise is about intelligence and intelligent agents. My argument is that we need to see intelligent agents as social actors. Why? Because they are going to take a position in social relationships. We speak about context awareness. That is very important. But if you develop intelligent systems, how are they going to deal with social relations, with power relations in the everyday, with inequalities? How do they take position between the preference of the man or the woman? How are they going to deal with the power relation between a father and a son, a mother and daughter, etc.? These issues have to be taken into account. Today intelligent agents are almost seen as neutral. That is not realistic because they cannot be neutral. Context awareness means that agents have to take position in social relations. How are we going to design these? Another interesting point that emerges from user research is related to the visibility and disappearance of computing. Ambient Intelligence is about computing that disappears. But what is meant is “physical” computing that disappears. It is implied that computing will also mentally disappear. But user research shows that physical objects are very important for people. There were already some examples given today. Objects give you the feeling that you control them. Than the question is, how can you control things you do not see? This is a major challenge from a user-oriented point of view. It has already been said today that privacy is important. AmI faces a dilemma here. It can only work when it knows a lot about people. Otherwise, it can not be proactive. The better AmI will work, the more it needs to collect personal information. How are we going to do deal with that? Ami cannot function without knowing people’s preferences, desires, habits, etc. How to address this dilemma?
12 Ambient Intelligence – the European Way for a User Friendly Information Society 169
Fig. 9
To conclude: I believe that Ambient Intelligence provides a strong and encompassing vision for the futures of IST in Europe (Fig. 9). The vision is already there, for some years, from 1999 you could say. It has evolved a little bit but it started with an important claim – that it is human oriented, not technology-deterministic. My major message is: let’s start realising that! Let’s stop saying that it is not about technology. But let’s start working and involving users from the beginning, from every moment in the development process. This is already partly acknowledged; the need for real user-involvement is acknowledged, as well as the need for interdisciplinary research. It is time to act on that, in stead of eternally discussing the AmI vision. The way forward is than to bring everyday computing closer to the everyday. This is not enough the case today. A lot of experimentation is already going but it needs to oriented in ways that are relevant for Europe. Not only small and large user experimentation is needed, also testing of possible business models. To conclude, there is also a need to discuss ethical questions. How fare can we go in delegating power to technologies, to this intelligent environment? We need also to discuss privacy and security questions. We have to discuss social needs as well. I would argue than, let us involve users and people as early as possible also in theses reflections, also in ethical reflex ions. People can say useful things, not only experts
170
Yves Punie
can have a say. People can possibly provide even new views on these topics. But then, if you look at available user research and existing efforts to involve users, we must admit that we actually don’t know so much about it. We don’t have enough qualified information on how to involve users in a serious way. Dedicated efforts are needed in advancing our insides on how to involve users for making AmI their future.
13 Mobile Usability Dr. Lothar Mühlbach Fraunhofer-Institut für Nachrichtentechnik Heinrich-Hertz-Institut (HHI), Berlin Ich möchte keinen Fachvortrag zum Thema „Mobile Usability“ halten, sondern einige Statements aus im Wesentlichen allgemein anerkannten Positionen zusammenstellen, um sie in diese Diskussionsrunde („Gelingt der Brückenschlag zwischen Mensch und Technik?“) einzubringen. Ich werde, wenn es um Bedienbarkeit, um Gebrauchstauglichkeit von mobilen Endgeräten und Anwendungen geht, das mehr im Sinne von Beispielen einbringen, aber versuchen, das Ganze etwas zu verallgemeinern und insbesondere auch die Diskussion, die hier im Zentrum stand, Ambient Intelligence, mit einzubeziehen. Aber zunächst eine Sache, die mir heute aufgefallen ist: Es wurde sehr viel über Moore’s Law in der einen oder anderen Form gesprochen. Im Wesentlichen ging es immer darum, dass es im Laufe der Zeit in Bezug auf Technik, Funktionalität, Zahl der Endgeräte u.ä. mehr geben wird als heute – über die konkrete Steigung oder die Form dieser Kurve kann man sich streiten, sie geht aber in jedem Falle immer deutlich nach oben. Mir ist dazu ein Artikel von William Buxton eingefallen, der meinte, dass man auch ein anderes Gesetz wesentlich stärker berücksichtigen müsste, er nannte es „God’s Law“. Ich weiß nicht, ob sie damit etwas anfangen können. Wenn man nicht an Gott glaubt, kann man es auch das Gesetz der biologischen Evolution des Menschen nennen. Was meinen sie, wie eine vergleichbare Kurve in Bezug auf die Informationsverarbeitungskapazität des Menschen aussieht? Sie verläuft seit Jahrmillionen wohl parallel zur x-Achse (also Steigung = 0). Ich persönlich habe übrigens den Eindruck, dass sie bei mir langsam etwas nach unten geht … Was ist das Problem? Warum sage ich das? Wir müssen diese beiden Gesetzmäßigkeiten irgendwie zusammenbringen. Der Mensch, der diese ganze Technik benutzen und bedienen soll, hat diese Einschränkung, und die Technik hat sehr, sehr viel Potenzial, wie wir heute auch wieder gehört haben. Das nur als Denkanstoß, und wenn wir das im Kopf behalten, bringt uns das sicher weiter. Zunächst ganz kurz die Faktoren für die Akzeptanz von Technik, für die Nutzung bei mobilen Endgeräten, aber auch generell für Ambient Intelligence.
172
Lothar Mühlbach
Bild 1
Es geht zunächst um den Nutzen (Bild 1). Ein Gerät muss nützlich sein. Der Nutzer, der zukünftige Kunde, muss damit etwas anfangen können. Wir haben heute einige Beispiele und Szenarien gehört, wo man sich fragen kann, ob das der Fall ist. Andere Beispiele finde ich wiederum persönlich nachvollziehbar. Wir wissen alle, dass uns häufig Lösungen in der Technik angeboten werden, für die man das Problem, das gelöst werden soll, erst einmal erfinden muss. Das Weitere sind natürlich Kosten, auf die ich nicht einzugehen brauche. Die Verfügbarkeit spielte besonders am Anfang der Mobilkommunikation eine Rolle. Mode ist ein ganz wichtiger Akzeptanzfaktor. Da kann man leider kaum Prognosen abgeben. Gerade im Bereich der Mobilkommunikation, das wissen Sie alle, sind Handys bestimmter Firmen gerade unter Jugendlichen mal „in“, mal nicht. Die Usability, die Gebrauchsfähigkeit, die Bedienbarkeit, ist ein wichtiger Faktor, aber eben einer unter vielen, d.h. auch die Usability kann nicht alles in Bezug auf die Akzeptanz erreichen. Was ist Usability (Bild 2)? Hier die allgemein anerkannte ISO-Definition:
13 Mobile Usability
173
Bild 2
Wie Sie an dieser Definition sehen, geht es darum, Usability für bestimmte Nutzer in Bezug auf bestimmte Zielsetzungen in einem bestimmten Nutzungskontext zu realisieren. Es gibt nicht „Usability an sich“. Das heißt auch, dass ein in einem bestimmten Nutzungskontext sehr gut entwickeltes Gerät oder eine Anwendung in einem anderen Nutzungskontext oder für eine andere Nutzergruppe gar nicht mehr benutzerfreundlich sein muss. Wie kann man Usability erreichen? Ich möchte auf ein Problem hinweisen, das Praktiker auf dem Gebiet häufig haben. Es gibt für viele technische Fragen Standards mit Checklisten. Das Protokoll xyz ist eben so festgelegt, das muss man dann eben so realisieren. Im Bereich der Usability gibt es das in dieser Form kaum. Wenn es etwas gibt, sind es Standards, die sich im Grunde genommen auf Officeanwendungen im weitesten Sinne beziehen. Es gibt Style Guides. Es gibt Empfehlungen zum Webdesign; z.B. von Jakob Nilsen – das sind Empfehlungen, die man nutzen kann. Wir haben aber gerade im Bereich neuerer, innovativer Anwendungen häufig das Problem, dass es dort solche Empfehlungen leider noch nicht gibt. Man kann Expertenevaluierungen durchführen lassen und man kann auch Tests mit Mitgliedern der Zielgruppe durchführen. Ich freue mich, als ich heute hier gehört habe, dass es bei-
174
Lothar Mühlbach
spielsweise im Bereich Smart Home genau solche Vorgehensweisen gibt. Ich meine, dass heutzutage der Einsatz solcher Verfahren fast die einzige Möglichkeit ist, hier zu dem Problem Akzeptanz unter Usability-Gesichtspunkten weiter zu kommen. Mindestens eines solcher Verfahren zur Sicherung der Usability sollte man anwenden, wobei ein Nutzertest häufig das aufwendigste ist. Wenn man ihn aber geschickt plant, kann man auch diesen kostengünstig durchführen. Wir müssen bei neuen Systemen, und das auch im Gegensatz zu traditionellen Ansätzen der Ergonomie und Usability, oft ganz unterschiedliche Randbedingungen und sich teilweise widersprechende Forderungen beachten. Man kann das gerade bei mobilen Endgeräten zeigen, und im Bereich Ambient Intelligence ist es ähnlich. Ein typisches Beispiel ist, dass ein mobiles Endgerät möglichst leicht sein soll. Andererseits sollen die Zeichen und natürlich auch die Bedienelemente gut lesbar und gut bedienbar sein. Da muss man konkret einen Kompromiss finden. Unterschiedliche Umgebungen, auch das hatte man früher in der Form nicht. Ganz unterschiedliche Lichtverhältnisse, wechselnde Lichtverhältnisse, akustische Verhältnisse, die in einer typischen Officeumgebung nicht so das Problem darstellen; bis hin zur Benutzung bei Bewegung, auch die Privatsphäre wurde hier schon angesprochen, sind erfahrungsgemäß bei mobilen Anwendungen, im Bereich Smart Home oder bei Ambient Intelligence wesentlich schwerer zu berücksichtigen. Häufig sind ganz konkrete Kompromisse zu finden, um eine Akzeptanz und dann letztlich eine erfolgreiche Vermarktung, zu gewährleisten. Das geht oft nur mit konkreten Nutzertests, dass man prototypische Anwendungen und Umgebungen entwickelt und dort Nutzer ihre Erfahrungen sammeln und berichten lässt. Dass Erfahrungen und Empfehlungen in Bezug auf neue Produkte häufig (noch) nicht vorhanden sind und ältere Standards sich nur begrenzt anwenden lassen, möchte ich an ein paar Beispielen kurz darstellen.
13 Mobile Usability
175
Bild 3
Sie sehen hier verschiedene Endgerätetypen (Bild 3). Schon eine solche Vielfalt ist im Officebereich, wo die gängigen Standards sonst herkommen, nicht der Fall. Die hier gezeigten Endgerätetypen haben ganz unterschiedliche Bedienkonzepte. Das typische Konzept von Maus und Tastatur, auch als WIMP (Windows, Icon, Mouse, Pointer) charakterisiert, das sich insbesondere für Office-Anwendungen bewährt hat, ist hier in der Regel nicht sinnvoll umsetzbar. Neben dem normalen Ziffernblock eines Mobiltelefons (zu dem es ergonomische Untersuchungen gibt) gibt es beispielsweise jetzt Lösungen, wo die Tasten an ganz anderen Stellen platziert sind. Die Frage der Benutzbarkeit ist hier noch zu untersuchen. Es gibt auch ganz neue, ungewohnte Bedienkonzepte, die man hinsichtlich der Benutzerfreundlichkeit untersuchen muss. Hier ein Beispiel für eine SMS-Eingabe mittels eines Stifts, an dem man ein bewegliches Element drehen muss, um die Zeichen einzugeben.
176
Lothar Mühlbach
Bild 4
Bei einem anderen Beispiel wird eine virtuelle Tastatur auf eine Unterlage projiziert (Bild 4). Es gibt auch ein Gerät, bei dem sich ein Softkey vergrößert, wenn man sich mit dem Finger nähert. Dadurch soll man auch bei sehr kleinen Bedienelementen komfortabel Eingaben machen können. Das sind ganz neue Konzepte, die konkret untersucht werden müssen. Jetzt vielleicht eine etwas provokante Frage: Muss Technik „menschlich“ sein, um menschengerecht zu sein? Muss Technik sich menschlich verhalten in dem Sinne, dass sie menschliches Verhalten, Emotionen, Intelligenz zeigt, was immer das sein mag? Ich meine: nein. Ich will nicht sagen, dass es nicht Anwendungen gibt, wo das sinnvoll ist, aber man kann es nicht einfach voraussetzen. Ich will Ihnen einige Beispiele nennen, wo wohl zu schnell von „menschlicher“ Technik auf „menschengerechte“ Technik geschlossen wurde.
Beispiel Bildfernsprechen und Videokonferenz Es hieß dort häufig: In der natürlichen Kommunikation sehen Menschen sich und haben auch Blickkontakt. Also muss doch Bildfernsprechen/Videokonferenz der Durchbruch in der Telekommunikation sein. Wie Sie alle wissen, ist/war das nicht der Fall.
13 Mobile Usability
177
Beispiel Virtuelle Umgebung Avatare sind menschenähnlich, also wird die Technik wohl menschengerecht sein. Wir haben dazu einige Untersuchungen durchgeführt und waren doch etwas enttäuscht, dass auch diese Technik – bis auf den Spielebereich – nicht so der Durchbruch war, wie man vermutete.
Beispiel Assistent bei der Textverarbeitung Ich will keiner Firma zu nahe treten, aber was macht man mit dieser Büroklammer, die immer (mit „menschlicher“ Mimik) bei der Textverarbeitung hoch kommt? Die meisten, die ich kenne, schalten sie zunächst ab, obwohl das ein Assistent ist, der helfen soll. Jetzt könnte man einwenden, dieser Assistent sei nur nicht optimal programmiert, aber evtl. sind psychologische Widerstände dagegen viel grundlegender.
Gegenbeispiel SMS Wer hat das nicht am Anfang als einen Quatsch bezeichnet, den niemand bedienen kann. Jetzt ist SMS neben Voice die Killerapplikation im Bereich der Mobilkommunikation. Warum ist das eigentlich so? Ich kann und will diese Fragen hier nicht beantworten, obwohl es wohl zu einigen zumindest Teilantworten gibt. Was ich mit den Beispielen zeigen wollte ist, dass man nicht voraussetzen kann, dass irgendeine bestimmte Technik menschengerecht sein muss, weil sie bestimmte Aspekte des Menschen berücksichtigt oder umsetzt. Die Symbiose, wie in einer konkreten Anwendung Mensch und Technik konkret zusammen arbeiten sollen, muss jedes Mal neu untersucht werden, möglichst durch empirische Untersuchungen mit Mitgliedern der Zielgruppe. Ein Aspekt, insbesondere aus dem Bereich Künstliche Intelligenz, den ich oft als einen Grundwiderspruch oder ein Dilemma bezeichne, ist, wenn die Technik sich dem Menschen gegenüber intelligent oder emotional darstellt und der Mensch dann auch erwartet, dass sie sich uneingeschränkt so verhält. Der Laie weiß oft nicht, wo diese Technik ihre Grenzen hat. Was passiert? Der Mensch setzt voraus, dass die Technik sich auch so verhält wie sie vorgibt, sich verhalten zu können. Sie kennen vielleicht sog. intelligente Auskunftssysteme. Sie kennen wahrscheinlich Sprachdialogsysteme, z.B. Auskunftssysteme bei der Bahn, wo man nach einigen Dialogschritten die nette Dame in natürlicher Sprache anspricht und dann kommt irgendein Zielbahnhof raus, zu dem man gar nicht wollte. Sie kennen „intelligente“ Automatisierung bei der Textverarbeitung. Ich persönlich stelle erst einmal jeden Automatismus ab, denn wenn ich z.B. zwei Großbuchstaben am Anfang des Satzes schreiben will, meint das System sonst zu wissen, dass das nicht gehen kann und wandelt den zweiten Buchstaben wieder in einen kleinen um.
178
Lothar Mühlbach
Worauf ich hinaus will ist, dass eine sich „dumm“ gebende Technik manchmal benutzerfreundlicher ist, weil sie nicht etwas suggeriert, mir vorgaukelt, was sie dann letztlich doch nicht halten kann. In eine ähnliche Richtung geht die Funktionsvielfalt von Anwendungen / Software: Häufig sind Softwareanwendungen zu aufgebläht, enthalten Funktionen, die niemand braucht. Zum Beispiel ISDN: Es gibt über 200 Funktionalitäten; laut einer Untersuchung werden sechs oder sieben überhaupt nur benutzt. Graphische Elemente, Animationen, die sicher gut gemeint sind, lenken oft nur ab. Der Skip-into-Button, um eine Flashanimation abzubrechen, ist oft das wichtigste Bedienelement auf einer Startseite im Web. Es wird häufig versucht, eine „eierlegende Wollmilchsau“ zu erfinden. Meine Empfehlung, meine These dazu: „KISS = keep it simple and stupid“ ist bei der Gestaltung von Bedienoberflächen meist genau das richtige Herangehen. Last but not least: „Datenschutz, was ist das?“ Er wird zu wenig berücksichtig, insbesondere bei so genannten smarten oder adaptiven Systemen. Diese Systeme können nur funktionieren, wenn sie in der Lage sind, personenbezogene Daten wie Verhalten, Stimmung, physiologisch medizinische Merkmale usw. zu analysieren. Das ist im Prinzip ganz spannend. Nur, was macht man da eigentlich? Man überträgt diese Daten häufig ungeschützt über irgendwelche Netze. Es ist überhaupt nicht klar, wer diese Daten wozu, in welchem Kontext auswertet und benutzt. Ich möchte nicht sagen, dass man solche Systeme nicht entwickeln und nutzen soll. Ich möchte nur darauf hinweisen und fordern. dass man Gesichtspunkte des Datenschutzes frühzeitig mit einbezieht. Dann kann man diese Probleme auch lösen. Auch die Datenschutzbeauftragten sind sehr kooperativ, wenn man sie fragt, was man berücksichtigen muss. Sie sind nur sehr ärgerlich, wenn man sich erst nach Abschluss einer Entwicklung an den Datenschutz erinnert. Dass Gesetze eingehalten werden müssen, ist schon Grund genug, den Datenschutz zu berücksichtigen. Ich wende mich aber auch an die Marketingleute: wenn ein Produkt erst einmal ein schlechtes Image hat, ist das auch für die Vermarktung sehr schlecht. Berücksichtigen Sie das bitte! Abschließend noch einmal zur Frage dieses Panels: Gelingt der Brückenschlag zwischen Mensch und Technik? Ich denke ja, wenn man bestimmte Prinzipien berücksichtigt, von denen ich einige dargestellt habe. Wir sollten das alle gemeinsam versuchen. Es gibt gute Ansätze dafür.
14 Dreamteam Mensch-Computer – Wer bestimmt die Spielregeln? Siegfried Frey Universität Duisburg-Essen Spätestens seit der flächendeckenden Verbreitung der Computertechnologie haben wir uns daran gewöhnt, dass technische Produktinnovationen stets mit dem Hinweis angepriesen werden, das jeweilige Gerät sei „spielend einfach“ zu bedienen, „mühelos“ zu handhaben und so „leicht“ zu verstehen, dass es sich quasi „von selbst“ erkläre. Und obwohl die konkreten Erfahrungen im Umgang mit der modernen Technik – angefangen von den Computern, über die Handys bis hin zu simplen Videorekordern – das genaue Gegenteil zu beweisen scheinen, kann man derartige Verheißungen noch nicht einmal als unseriös bezeichnen. Denn die enorme Flexibilität der Computertechnologie eröffnet ja derart vielfältige Gestaltungsmöglichkeiten, dass es keineswegs abwegig erscheint anzunehmen, dass Geräte konstruiert werden können, die sich auf ihren Nutzer in einer Weise einzustellen vermögen, dass sich dessen Fähigkeiten mit denen seines technischen Kommunikationspartners in einer Weise ergänzen, dass man geradezu von einem ‚Dream Team‘ sprechen könnte. Die einzige wirkliche Hürde, die es auf dem Wege zur Erreichung dieses Zieles zu überwinden gilt, ist die Beantwortung der Frage, wie der technische Partner sich denn nun verhalten muss, damit der menschliche mit ihm klar kommt. Betrachtet man die Probleme, die sich im Hinblick auf die Akzeptanz der Innovationen im Bereich der Kommunikationstechnik heutzutage stellen, so scheint es fast, als ob die Ingenieure in gewisser Weise das Opfer ihres eigenen ungeheuren Erfolges bei der Beherrschung der Prozesse der technischen Kommunikation geworden sind. Denn die gigantischen Entwicklungsfortschritte, die in der zweiten Hälfte des vergangenen Jahrhunderts speziell im Bereich der Informationstechnologie erzielt wurden, sind fraglos nur dadurch möglich geworden, dass sich die ingenieurwissenschaftlichen Bemühungen voll und ganz auf die Lösung der Probleme der technischen Kommunikation konzentriert hatten. Und bis zu dem Zeitpunkt, zu dem Mensch und Maschine miteinander zu kommunizieren begannen, hat ein ‚gnädiges Schicksal‘, so möchte man fast sagen, die Ingenieure auch davor bewahrt, die so ganz anders gearteten Funktionsprinzipien der Humankommunikation in Rechnung stellen zu müssen. Denn solange die Maschinen sozusagen unter sich geblieben sind – wie das ja bei der bis in die jüngste Zeit massiv vorangetriebenen Automatisierung noch weitgehend der Fall war – sorgten klug ausgedachte Konstruktionsmaßnahmen dafür, dass die für ein reibungsloses Zusammenwirken der verschiedenen Systemkomponenten nötigen Botschaften störungsfrei übermittelt, gemäß eines strikt fest-
180
Siegfried Frey
gelegten Kodes interpretiert und ‚auf Kommando‘ in die jeweils erforderliche Aktion umgesetzt wurden.
Neue Spielregeln Durch die Einbindung der Systemkomponente ‚Mensch‘ war es wohl unvermeidlich, dass diese ‚heile Welt‘ der technischen Kommunikation zunächst einmal zusammenbrach. Denn an dem zuvor völlig transparenten und daher auch exakt steuerbaren Austauschprozess wirkte nun auf einmal ein Wesen mit, das nicht nur nach eigenen Spielregeln agierte, sondern das sich nicht einmal selbst ganz darüber im Klaren war, nach welchen Regeln es eigentlich spielte. Den daraus resultierenden Problemen war weder mit bewährten ingenieurmäßigen Lösungen, etwa dem Umbau oder der Neuverschaltung der Systemkomponenten, beizukommen, noch mit der immer wieder vorgetragenen Absichtserklärung, sich nach dem Menschen richten zu wollen. Ohne die genaue Kenntnis der für die Humankommunikation grundlegenden Regeln mussten vielmehr die fraglos stets vorhandenen ernsthaften Bemühungen der Ingenieure zur Verbesserung der Geräte fast zwangsläufig ins Leere laufen. Kein Wunder also, wenn heute aus dem Munde hochrangiger Vertreter der Industrie zu hören ist: „Unsere Branche hat kollektive Probleme beim Prophezeien: Die Begeisterung für Handys wurde unterschätzt. Die Begeisterung für Bildtelefone wurde überschätzt. Und UMTS? Und Video über DSL? Interaktives Fernsehen? Konvergenz? Fragezeichen! Wir beurteilen die Trends der Kommunikationstechnik falsch, weil wir das Kommunikationsverhalten falsch beurteilen – oder gar nicht betrachten“.1
Mit dem Ausbau der ambient intelligence wird sich diese Problematik nochmals erheblich verschärfen. Denn im Zuge dieser Entwicklungen dringt die Technik zwangsläufig in einen Bereich vor, der bisher das ureigene Ressort des Menschen war, nämlich Urteile fällen, Entscheidungen treffen und Weisungen erteilen. Mehr noch als bisher wird die Kommunikationstechnik sich daher in Zukunft unter Spielregeln bewähren müssen, die für die Humankommunikation grundlegend sind. Und es wird in ganz entscheidendem Maße von der Kenntnis dieser Regeln und deren Berücksichtigung bei der Systemkonzeption abhängen, ob sich der Mensch von dieser Technik derart ‚umhegt‘ und zuvorkommend behandelt fühlen wird, dass er sie nicht mehr missen möchte, oder ob er sich – wie gegenwärtig noch allzu häufig der Fall – von ihr derart behindert fühlen wird, dass er möglichst wenig mit ihr zu tun haben will. 1. Rede von Reinhard Hutter, Vorstandsvorsitzender der Alcatel SEL AG, zur Rolle der Wissenschaft als Partner der Industrie anlässlich der 25-Jahr-Feier der Alcatel SEL Stiftung am 21. Oktober 2004.
14 Dreamteam Mensch-Computer – Wer bestimmt die Spielregeln?
181
Faszinierende Ähnlichkeiten Worin unterscheidet sich denn nun aber die Humankommunikation so grundlegend von der technischen Kommunikation? Dass diese Frage nicht längst geklärt ist, sondern dass wir sie uns noch heute zu einem Zeitpunkt stellen müssen, zu dem die flächendeckende Verbreitung der Computertechnologie längst erfolgt ist, stellt an sich schon ein bemerkenswertes Faktum dar, das wohl nicht wenige der Probleme erklärt, die das Zusammenwirken von Mensch und Technik gegenwärtig belasten. Im Rückblick auf die im Verlaufe des vergangenen Jahrhunderts erfolgte Entwicklung der kommunikationstheoretischen Modellvorstellungen ist allerdings leicht zu erkennen, weshalb die Auseinandersetzung mit dieser – für die Optimierung der Mensch-Technik-Interaktion so zentralen – Fragestellung nicht früher in Angriff genommen wurde. Die Hauptursache dafür liegt in der wahrhaft frappierenden Ähnlichkeit zwischen der technischen und der menschlichen Kommunikation, auf die die kommunikationstheoretischen Arbeiten des überragenden amerikanischen Nachrichtentechnikers Claude Shannon (1916-2001) aufmerksam gemacht hatten. Sowohl in den Ingenieurwissenschaften als auch im humanwissenschaftlichen Bereich war schon gleich nach der Erstveröffentlichung von Shannons epochaler Schrift „A Mathematical Theory of Communication“ mit großer Faszination vermerkt worden, dass sich für buchstäblich jedes der von Shannon unterschiedenen fünf Funktionselemente der technischen Kommunikation, source, transmitter, channel, receiver, destination, ein Analogon in der Humankommunikation finden lässt, nämlich das Gehirn des Senders, dessen Stimmbänder, die Luft, das Ohr des Empfängers und dessen Gehirn. Eine offenkundige Entsprechung schien es darüber hinaus auch im Ablauf der Nachrichtenübermittlung zu geben, die Shannon als dreistufigen Prozess beschrieben hatte, der mit der Enkodierung einer Nachricht durch den Transmitter beginnt, mit der Übertragung der enkodierten Zeichen in einem dafür geeigneten Kanal fortgesetzt wird und mit der Dekodierung der beim Empfänger eingegangenen Zeichen beendet wird. Und selbst für das von ihm als zentrales Problem der technischen Kommunikation erkannte Kanalrauschen ließ sich mühelos ein Äquivalent in der Humankommunikation benennen. Denn auch Menschen fällt es schwer, eine Sprachaussage oder einen Text zu verstehen, wenn ungünstige akustische Rahmenbedingungen die Laute verzerren beziehungsweise Buchstaben durch äußere Einflüsse mehr oder weniger unleserlich geworden sind.
Semantik, Syntax und Pragmatik Angesichts derart vieler und noch dazu unmittelbar evidenter Gemeinsamkeiten ist es gewiss verständlich, dass zunächst einmal der Eindruck entstand, man brauche sich bezüglich der Frage, wie das Zusammenwirken von Mensch und Technik zu gestalten sei, seitens der Ingenieurwissenschaften keine großen Gedanken zu machen. Die Vorstellung, eine nahezu reibungslose Verständigung zwischen
182
Siegfried Frey
Mensch und Technik werde sich spätestens nach Überwindung der unvermeidlichen Anfangsschwierigkeiten quasi von alleine einstellen, musste als umso berechtigter erscheinen, als die Modellvorstellungen Shannons schon sehr rasch auch zur Grundlage der theoretischen Betrachtungen avancierten, die in den Humanwissenschaften über den Kommunikationsprozess beim Menschen angestellt wurden. Dass diese Theorie dort mit offenen Armen aufgenommen worden war, lag an dem Umstand, dass Shannon mit seinen Überlegungen praktisch Neuland betreten hatte. Denn die Frage, wie sich Menschen untereinander verständigen, war von dem Wesen, das sich – als einziges auf diesem Planeten – mit der Erfindung der Sprache sein eigenes Kommunikationswerkzeug geschaffen hat, bis dahin seltsamerweise noch gar nicht ernsthaft gestellt worden. Insoweit in den rund drei Jahrtausenden der abendländischen Geistesgeschichte die geheimnisvolle Fähigkeit des Menschen, sich mit Hilfe von Symbolen verständigen zu können, überhaupt thematisiert worden war, richteten sich die Bemühungen auf die Untersuchung der grammatischen und semantischen Merkmale der verschiedenen Sprachen und galten so lediglich den strukturellen Eigentümlichkeiten des Instruments als solchem. Selbst die Beschäftigung mit der seit Urzeiten rätselhaft gebliebenen Frage nach dem Ursprung der Sprache, die im späten 18. Jahrhundert im Zusammenhang mit der Frage der ‚Gottgegebenheit‘ dieses Werkzeugs die Gemüter vorübergehend aufs höchste erregt hatte, war dann ausgerechnet in dem zum „Jahrhundert der Wissenschaft“ ausgerufenen 19. Jahrhundert durch einen berühmten von der Société Linguistique de Paris im Jahre 1866 ausgesprochenen Bann zu einem Tabuthema für die Wissenschaft erklärt worden. Die systematische Auseinandersetzung mit der für das Verständnis der conditio humana so grundlegenden Frage nach den Regeln, die der zwischenmenschlichen Verständigung zugrunde liegen, begann auf diese Weise überhaupt erst zu einem Zeitpunkt, als die technologische Entwicklung mit der Erfindung von Rotationsdruckmaschinen, Radioübertragung und Filmkamera den Kommunikationsprozess beim Menschen bereits auf eine ganz neue Basis gestellt hatte. Den ersten gewichtigen Versuch, Aufmerksamkeit und Interesse für das so lange ausgeblendet gebliebene Thema zu wecken, unternahm in den 30er Jahren des vergangenen Jahrhunderts Kenneth Burke, eine Größe der amerikanischen Publizistik. Dessen Bemühungen, den Begriff „Kommunikation“ auf die Agenda der Humanwissenschaften zu setzen, scheiterten allerdings schon im Ansatz. Denn als der für seine Werke vielfach ausgezeichnete Schriftsteller und Philosoph 1935 ein Buch zum Druck geben wollte, für das er den Titel Treatise on Communication vorgesehen hatte, legte der Verleger sein Veto ein. Bei einem Werk mit einem solchen Titel, so eröffnete er verschreckt seinem Beststellerautor, müssten die Kunden ja glauben „es handle sich um ein Buch über Telefondrähte“. Und so kam es, dass das vielleicht bedeutendste Werk Burkes unter dem Titel Permanence and Change erschien. Die entscheidende Wegmarke für den Beginn der systematischen Auseinandersetzung mit der kommunikationstheoretischen Problematik setzte so die drei Jahre
14 Dreamteam Mensch-Computer – Wer bestimmt die Spielregeln?
183
später erschienene Schrift „Foundations of the Theory of Signs“ des amerikanischen Philosophen Charles W. Morris (1903-1979). Sie war von ihm als Beitrag zu der monumentalen International Encyclopedia of Unified Science verfasst worden, die 1938, auf Betreiben des Wiener Kreises, unter der Federführung von Otto Neurath, Rudolf Carnap und Morris selbst herausgegeben wurde. In dem klaren Bewusstsein, dass er sich mit dieser Abhandlung auf ein von der Geisteswissenschaft praktisch noch unberührtes Territorium begebe, begnügte sich Morris allerdings damit, lediglich das Aufgabenspektrum zu umreißen, mit dem sich eine erst noch zu etablierende Wissenschaft von der Humankommunikation zu befassen habe. Wenn es gelingen solle, die geheimnisvollen Prozesse der zwischenmenschlichen Verständigung und der durch diese Prozesse ausgelösten Wirkungen zu verstehen, müsse sich diese Wissenschaft, so legte Morris dar, mit hauptsächlich drei Fragenkomplexen auseinandersetzen. Zur deren Unterscheidung schlug er die Begriffe Semantics, Syntactics, und Pragmatics vor, wobei er die Semantik als „die Beziehung der Zeichen zum Bezeichneten“ definierte, die Syntax als „die Beziehung der Zeichen untereinander“ und die Pragmatik als „die Beziehung der Zeichen zu ihren Interpreten“.
Das Primat der Pragmatik Mit dieser Unterscheidung hatte Morris, wie der Herausgeber der deutschen Übersetzung von dessen 1946 erschienenem Hauptwerk Signs, Language and Behavior schrieb, „so etwas wie eine Zauberformel gefunden, die seitdem aus der Literatur … nicht mehr verschwunden ist“ (Apel, 1973:10). Als weitaus wichtiger für die Inangriffnahme der drei von ihm skizzierten Aufgabenstellungen erwies sich allerdings, dass noch im selben Jahr, in dem Morris Hauptwerk erschienen war, der HarvardPsychologe und spätere MIT-Kollege Shannons, George A. Miller, sich dazu entschloss, der ‚gähnenden Leere‘ auf diesem Sektor des Buchmarkts durch die Erstellung eines Lehrbuchs der Humankommunikation abzuhelfen. „Fünf Jahre und zwei mimeographierte Versionen später“ erschien dieses Werk, wie dessen Autor im Vorwort schrieb, im Jahre 1951 dann unter dem Titel Language and Communication. In diesem ersten von einem Humanwissenschaftler verfassten Buch, das das Wort ‚Kommunikation‘ im Titel führte, hatte Miller grundlegende Überlegungen zur Frage der relativen Bedeutung angestellt, die den drei von Morris genannten Aufgabengebieten im Hinblick auf die Rolle der Kommunikation beim Menschen zukomme. Und er ließ keinen Zweifel daran, welchem dieser Arbeitsgebiete das Hauptaugenmerk einer Wissenschaft zu gelten habe, die sich um die Aufklärung der bei biologischen Organismen stattfindenden Verständigungsprozesse bemühe: Die pragmatischen Regeln regieren die Beziehung zwischen den Symbolen und dem Benützer dieser Symbole (Morris, 1938). Da verbale Symbole nicht existieren können ohne Organismen, die diese erzeugen und wahrnehmen, sind die pragmatischen Regeln der Sprache in einer gewissen Weise grundlegend für die semantischen und syntaktischen Regeln. Das Hauptinteresse des Psychologen richtet sich auf die prag-
184
Siegfried Frey matische Dimension der Sprache, obgleich er es sich nicht leisten kann, die Dimensionen der Semantik und Syntaktik zu ignorieren (Miller, 1951:107; Hervorhebung im Original).
Eine fertige Lösung Im Juli 1948, zwei Jahre nachdem Miller diesen ersten Versuch in Angriff genommen hatte, die geheimen Regeln aufzudecken, die die zwischenmenschliche Verständigung regieren, erschien dann im Bell System Technical Journal, der Hauszeitschrift von Shannons Arbeitgeber, der Telefonfirma AT&,T die ‚mathematische Theorie der Kommunikation‘. Bereits zehn Jahre zuvor, im Alter von 22 Jahren, hatte Shannon eine auf der Boole’schen Algebra aufbauende mathematische Theorie zur Optimierung elektronischer Schaltkreise publiziert, die die Entwicklung der Computertechnik revolutioniert hatte. Aufgrund dieser Glanztat war er in Fachkreisen denn auch schon weithin berühmt und konnte so der gespannten Aufmerksamkeit höchster Stellen des Wissenschaftsmanagements sicher sein. Und tatsächlich war sein Aufsatz schon kurz nach dessen Erscheinen dem ehemaligen Chef der Abteilung Angewandte Mathematik im amerikanischen Kriegsministerium, Warren Weaver (1894-1978) aufgefallen, der inzwischen wieder in sein früheres Amt als Direktor der naturwissenschaftlichen Abteilung der Rockefeller Stiftung zurückgekehrt war. Wie viele andere nach ihm war Weaver von den Ähnlichkeiten zwischen der technischen und der menschlichen Kommunikation, die ihm bei der Lektüre von Shannons Arbeit ganz spontan in den Sinn gekommen waren, aufs höchste fasziniert. Und in dem Bemühen, die Geistes- und Sozialwissenschaftler, die einer im Bell System Technical Journal publizierten Arbeit wohl schwerlich begegnen würden, auf diese Entdeckung aufmerksam zu machen, publizierte der einflussreiche Wissenschaftsmanager im Juli 1949 in der hoch renommierten Zeitschrift Scientific American ein an die Humanwissenschaften addressiertes Memorandum über Shannons Theorie, das er mit den Worten eröffnete: „How do men communicate, one with another?“ (Weaver, 1949:11). Die Antwort auf diese Frage sei, so machte Weaver in diesem blendend geschriebenen, von großer Begeisterung für Shannons Arbeit zeugenden Aufsatz geltend, in eben dieser Theorie zu finden. Denn obwohl diese sich scheinbar nur für die Erklärung der Verständigung zwischen Maschinen interessiere, sei die ihr zugrunde liegende Modellvorstellung „derart inspiriert konzipiert, dass sie sich mit dem wirklichen inneren Kern des Kommunikationsproblems befasst“ (Weaver, 1949:14). Insofern eigne sich diese Theorie auch für die Erklärung jener seit eh und je so rätselhaften Prozesse, die in der Humankommunikation wirksam werden. Dies umso mehr, als ihr Geltungsbereich keineswegs nur auf den sprachlichen Informationsaustausch beschränkt sei. Sie lasse sich vielmehr ohne weiteres auch zur Erklärung sämtlicher Formen der nichtsprachlichen Verständigung heranziehen. Denn „die
14 Dreamteam Mensch-Computer – Wer bestimmt die Spielregeln?
185
mathematische Theorie der Kommunikation“, so beschrieb Weaver den Eindruck, den die Lektüre von Shannons Arbeit bei ihm hinterlassen hatte, ist derart allgemeingültig, dass man gar nicht angeben muss, welche Art von Symbolen verwendet wird – ob geschriebene Buchstaben oder Worte, ob musikalische Notenzeichen oder gesprochene Worte oder symphonische Musik oder Bilder. Die Beziehungen, die sie enthüllt, sind für all diese und andere Formen der Kommunikation anwendbar (Weaver, 1949:14).
Eine höchst populäre Schemazeichnung Speziell zu einem Zeitpunkt, zu dem mit der gerade erfolgten Einführung des Fernsehens die Bildkommunikation ihren triumphalen Siegeszug angetreten hatte, musste eine Botschaft, die verkündete, mit der Publikation der Theorie der technischen Kommunikation stehe eine quasi fertige Lösung zur Erklärung sowohl der verbalen als auch der nichtverbalen Kommunikation bereit, mehr als willkommen erscheinen. Zumal andere, vergleichbar differenziert ausgearbeitete Modellvorstellungen noch gar nicht zur Verfügung standen. Und tatsächlich stießen Weavers Darlegungen fast überall auf offene Ohren. Ja, man war ihm für seinen Hinweis auf die im Bell System Technical Journal erschienene Arbeit dermaßen dankbar, dass Shannons Theorie in der Sekundärliteratur schon bald weithin unter der Bezeichnung „Shannon-Weaver Theorie“ der Kommunikation geführt wurde – eine für die bloße Lektüre und Bekanntmachung dieser Theorie zweifellos hohe Ehre, die dem Wissenschaftsmanager in der humanwissenschaftlichen, und teilweise sogar in der ingenieurwissenschaftlichen Literatur bis zum heutigen Tage zuteil wird. Völlig unbeabsichtigt und ungewollt von dem wahren Erfinder dieser Theorie geriet auf diese Weise die systematische Erforschung menschlicher Kommunikationsprozesse, die erst kurz zuvor aufgrund der von Morris gesetzten Impulse begonnen hatte, auf eine völlig neue Bahn. Wegbereiter dieser neuen Entwicklung wurden allerdings nicht die hoch differenzierten, dem Leser in Form zahlloser mathematischer Gleichungen unterbreiteten Überlegungen, die Shannon zu der Frage angestellt hatte, wie sich die Probleme überwinden lassen, die durch die vielfältigen, im einzelnen gar nicht bekannten und deshalb in ihrem Verhalten auch nicht exakt vorhersagbaren Störquellen im Übertragungskanal verursacht werden. Als grundlegend für die kommmunikationstheoretischen Betrachtungen, die nun fast gleichzeitig in nahezu sämtlichen Zweigen der Humanwissenschaften einsetzten, erwies sich vielmehr das rasch populär gewordene von Shannon in nicht zu überbietender Schlichtheit gezeichnete „Schematische Diagramm eines allgemeinen Kommunikationssystems“, das dieser in einer Art Vorbemerkung seinen eigentlichen Ausführungen vorangestellt hatte. Und zwar in der unverkennbaren Absicht, die vergleichsweise geringe Komplexität technischer Kommunikationsprozesse für jedermann unmittelbar ersichtlich werden zu lassen.
186
Siegfried Frey
Grafisch neu gestaltet und in vielfacher Vergrößerung auf zwei Seiten des Scientific American ausgebreitet, nutzte Weaver Shannons Diagram um die Ähnlichkeiten zwischen der technischen und der menschlichen Kommunikation für jedermann augenfällig zu machen. Und so tauchte diese Schemazeichnung denn auch schon bald in zahllosen Varianten in der Literatur aus den unterschiedlichsten Disziplinen der Humanwissenschaften auf, angefangen von der Anthropologie, über die Biologie, Linguistik, Philosophie, Politologie, Psychologie, Soziologie bis hin zur Zeitungswissenschaft. Die Modifikationen an Shannons Diagramm, die im Zuge dieser Übernahmen vorgenommen wurden, waren allerdings, wie bereits an anderer Stelle dargelegt wurde (Frey, 1999), derart geringfügig, dass einmal mehr der Eindruck entstehen musste, die menschliche Kommunikation unterscheide sich allenfalls marginal von der technischen. Selbst Miller, der in seinem 1951 publizierten Werk Shannons Arbeit nur ganz nebenbei erwähnt hatte, vertrat wenige Jahre später die von Weaver geäußerte Auffassung kaum weniger vehement als dieser selbst. Er sei „stolz sagen zu können“ erklärte Miller schon im Jahre 1956 in einem Vortrag vor der National Electronics Conference, dass Psychologen nicht langsam waren im Begreifen der offenkundigen Tatsache, dass ein großer Teil des Verhaltens sich mit dem Senden, Übermitteln und Empfangen von Botschaften befasst … Die Tinte von Shannons ‚Mathematical Theory of Communication‘, war noch kaum trocken, da wandten Psychologen die Konzepte bereits in ihren psychologischen Experimenten an (Miller, 1956:395f).
Selbst noch im Jahre 1968, zu einem Zeitpunkt als in Harvard bereits die auf der Grundlage der Pragmatik entwickelten kommunikationstheoretischen Überlegungen des englischen Sprachphilosophen Herbert Paul Grice (1913-1988) Furore gemacht hatten, die bald darauf zu einem ganz neuen Verständnis der zwischenmenschlichen Verständigung führen sollten, vertrat der weit über die Grenzen seiner Disziplin hinaus einflussreiche, inzwischen an das MIT gewechselte Psychologe die Auffassung, Shannons Theorie der technischen Kommunikation sei „derart allgemeingültig, dass man wahrhaftig sagen kann, dass jeglicher Funktionsmechanismus, sei er nun menschlicher, elektrischer oder mechanischer Art, dieser Theorie genügen muss, wenn er die Funktion der Kommunikation erfüllen soll“ (Miller, 1968:46).
Ein folgenschweres Missverständnis Die einzige gewichtige Stimme, die in dezidiertem Gegensatz hierzu, von Anfang an auf einen ganz grundlegenden Unterschied zwischen der technischen und der menschlichen Kommunikation aufmerksam gemacht hatte, kam, so muss man in Anbetracht eines derart weitreichenden Konsensus wohl konstatieren, von Shannon selbst. Wenn man sich mit kommunikationstheoretischen Fragen befasse, so betonte der Mathematiker bereits auf der ersten Seite seines 80-seitigen Traktats, stünden normalerweise Fragen im Mittelpunkt der Betrachtung, die mit dem „Bedeutungs-
14 Dreamteam Mensch-Computer – Wer bestimmt die Spielregeln?
187
gehalt“ einer Nachricht zusammenhängen. Und wie um dem Eindruck vorzubeugen, er überschätze die Reichweite seiner theoretischen Erwägungen, stellte Shannon unmissverständlich klar: „Diese semantischen Aspekte der Kommunikation sind irrelevant für das ingenieurwissenschaftliche Problem“ (Shannon, 1948:379; Hervorhebung im Original). Dass sich der große Theoretiker nicht weiter damit aufhielt zu erklären, warum dem so sei, ja dass er nicht einmal einen diesbezüglichen Hinweis in sein schematisches Diagramm aufnahm und zudem kein Wort darüber verlor, welche Rolle die Pragmatik in diesem Kontext spiele, hat, wie man angesichts der Rezeptionsgeschichte von Shannons Ideen aus der Distanz von einem halben Jahrhundert leicht erkennen kann, nicht wenig zur Stagnation des Fortschritts auf dem Gebiet der Mensch-Technik-Interaktion beigetragen. In der für ihn so charakteristischen Art, sich auf das Wesentliche zu konzentrieren, ging Shannon selbst allerdings fraglos davon aus, dass der Grund, weshalb die Semantik für den Ingenieur irrelevant und die Pragmatik noch nicht einmal der Rede wert sei, sich doch von selbst verstehen müsse. Und tatsächlich hätte allein schon die Reflexion über die in den Ingenieurwissenschaften ganz offenkundig mit Bedacht gewählten Worte Enkodierung und Dekodierung die Antwort auf die Frage geben können, weshalb weder das Problem der Semantik, noch das Problem der Pragmatik im ingenieurwissenschaftlichen Bereich von Belang ist. Denn diese Wortwahl verweist explizit darauf, dass die Verständigung zwischen Maschinen auf einem Kodex basiert, d.h. auf einer unumstößlichen, quasi gesetzlichen Vorschrift, durch die die semantische Beziehung zwischen Zeichen und Bezeichnetem für Sender und Empfänger absolut verbindlich geregelt ist. Da diese Kodierungsvorschrift den am Nachrichtenaustausch Beteiligten nun aber keinerlei Ermessensspielraum hinsichtlich des Bedeutungsgehalts der Zeichen zugesteht, die der Nachrichtenübermittlung dienen, sind die semantischen Aspekte der Kommunikation in der Tat völlig irrelevant für den lediglich mit der Übertragung dieser Zeichen befassten Ingenieur. Derselbe Sachverhalt macht erklärbar, weshalb die Pragmatik für die Nachrichtentechnik kein Thema ist. Denn der Ingenieur ist bekanntlich in der wahrhaft beneidenswerten Lage, sich einen Empfänger so konstruieren zu können, dass dieser das exakte Spiegelbild des Senders darstellt. Auf diese Weise fällt es nicht schwer zu gewährleisten, dass der Empfänger die Zeichen in genau derselben Weise dekodiert in der sie vom Sender enkodiert wurden. Mithin stellt sich in der technischen Kommunikation gar nicht erst die in der Humankommunikation so zentrale Frage der Pragmatik, nämlich wie wohl der Empfänger die Zeichen interpretieren werde, die ihm der Sender übermittelt. Unter diesen Umständen löst vielmehr eine Theorie, die imstande ist, die Funktionsweise des Senders sowie die im Kanal zu erwartenden Gegebenheiten zu erklären, auch gleichzeitig das Problem des Verstehens auf Seiten des Empfängers und deckt damit bereits den gesamten Kommunikationsprozess ab. Dass die Aufmerksamkeit der Wissenschaft gleichwohl über ein halbes Jahrhundert hinweg auf die von Weaver betonten Ähnlichkeiten zwischen der technischen und
188
Siegfried Frey
der menschlichen Kommunikation fixiert blieb, hat zweifellos dazu beigetragen, dass die Erarbeitung des theoretischen und methodischen Know-how, das zur Anpassung der Technik an den Menschen unabdingbar notwendig gewesen wäre, nicht mit der dafür notwendigen Intensität in Angriff genommen wurde. Allein schon dieser Umstand musste nun aber geradezu zwangläufig zu ganz erheblichen Reibungsverlusten beim Zusammenwirken von Mensch und Technik führen (Möller, 1999; 2003); wenn nicht gar zur Konstruktion von Geräten, für die der Ingenieurwissenschaftler Gerd Geiser, dessen Pionierarbeiten auf dem Gebiet des Zusammenwirkens von Mensch und Technik mit der höchsten dafür in Deutschland vergebenen Auszeichnung – dem „Forschungspreis Technische Kommunikation“ der Alcatel SEL Stiftung – preisgekrönt wurden, den Begriff „benutzungsfeindliche Geräte“ geprägt hat (Geiser, 1998). Ja, man kann sagen, dass durch die Nichtbeachtung der von Shannon zu Recht als unmittelbar evident erachteten Unterschiede zwischen der technischen und der menschlichen Kommunikation, und der damit untrennbar verbundenen Geringschätzung der Rolle des Empfängers, die Entstehung massivster Akzeptanzprobleme im Keim bereits angelegt war.
Andere Machtverhältnisse Die gedankenlose Übertragung der für das Funktionieren der technischen Kommunikation maßgeblichen Verhältnisse auf den Humanbereich hat, als vielleicht gravierendste Konsequenz, insbesondere den Blick darauf verstellt, dass die Anforderungen, denen der Sender in der Humankommunikation genügen muss, um ein Vielfaches höher liegen als in der technischen Kommunikation. Erstmals skizziert wurden diese Anforderungen im Rahmen der von Grice 1967 an der Harvard University gehaltenen William James Lectures, die sich für die Entwicklung der humanwissenschaftlichen Kommunikationstheorie als bahnbrechend erweisen sollten. Um eine erfolgreiche Verständigung überhaupt gewährleisten zu können, so machte Grice in seiner sofort weithin bekannt gewordenen Vorlesungsreihe deutlich, ist der Sprecher gehalten sicherzustellen, dass seine Äußerungen einer Reihe von Anforderungen genügen, die er mit den Begriffen Quantity, Quality, Relation und Manner umschrieb. Diese (von Grice in Anlehnung an Kant als 'Maximen' bezeichneten) Termini verweisen darauf, dass die zwischenmenschliche Verständigung auf Dauer nur dann funktionieren kann, wenn der Sprecher dafür sorgt, dass seine Äußerungen weder mehr noch weniger Information enthalten als nötig ist (Quantity), nicht ungeprüft oder gar unwahr sind (Quality), nicht irrelevant im Hinblick auf den in Frage stehenden Sachverhalt sind (Relation) und nicht in einer unhöflichen oder mehrdeutigen Art und Weise vorgetragen werden (Manner). Dass der Hörer in der Regel keinerlei formale Handhabe hat, den Sprecher zur Einhaltung dieser impliziten Vorschriften zu zwingen, ändert an der dominanten Position, die der Empfänger in der Humankommunikation einnimmt, ebenso wenig wie der Umstand, dass die Rolle von Sender und Empfänger ständig wechseln. Denn insoweit den an der Kommuni-
14 Dreamteam Mensch-Computer – Wer bestimmt die Spielregeln?
189
kation Beteiligten an einem guten und vor allem weiteren Kontakt zueinander gelegen ist, tun sie gut daran, sich diesen stillschweigenden Verpflichtungen nicht zu entziehen. Der tiefere Grund für die enorme Bedeutung, die den Grice'schen Maximen in der Humankommunikation zukommt, liegt, wie bereits an anderer Stelle vermerkt wurde (Frey, 1998) an den im Vergleich zur technischen Kommunikation völlig unterschiedlich gearteten 'Machtverhältnissen' zwischen Sender und Empfänger. Während der technische Empfänger die Information, die ihm der Sender füttert, sozusagen geduldig hinnehmen muss, ist der menschliche Empfänger keineswegs gezwungen – und auch nicht gewillt – dem Sender bei der Auswahl der Mitteilungen und der Art und Weise, wie sie ihm präsentiert werden, freie Hand zu lassen. Er besteht vielmehr strikt darauf, mit Information versorgt zu werden, die für ihn auch tatsächlich ‚relevant‘ ist – und zwar gemäß seiner eigenen Maßstäbe. Und er besteht zudem darauf, dass ihm diese Information in einer ihm angenehmen Art und Weise präsentiert wird, deren Rezeption ihm keine unnötige Mühe macht.
Technische und biologische Systeme Dass die mathematische Theorie der Kommunikation ausschließlich Problemen galt, die mit den im Kanal zu erwartenden Gegebenheiten zusammenhängen, bedeutet denn auch keineswegs, dass es für die Gewährleistung eines störungsfreien Nachrichtenaustausches zwischen technischen Systemen ausreicht sicherzustellen, dass die zu übermittelnden Zeichen den Übertragungsweg unbeschädigt passieren. Shannon trug mit dieser Fokussierung seiner Überlegungen lediglich dem Umstand Rechnung, dass die Abschirmung des Signals gegen Störeinflüsse, die im Übertragungskanal auftreten können, eine ganz besondere Herausforderung für die Ingenieurkunst darstellt. Und zwar aus dem einfachen Grunde, dass das im Kanal stattfindende Geschehen sich in aller Regel der Kontrolle des Ingenieurs entzieht, sodass dieser auf die Art und Weise des ‚Kanalrauschens‘ – anders als auf die Konstruktionsmerkmale von Sender und Empfänger – nicht direkt Einfluss nehmen kann. So wichtig nun aber die Bewältigung dieses Problems ist, es stellt gleichwohl nur eine notwendige, aber keineswegs hinreichende Bedingung für das Zustandekommen einer erfolgreichen Verständigung zwischen Maschinen dar. Diese kann vielmehr nur dann gelingen, wenn eine zweite, weitaus wichtigere – wenn auch für den Konstrukteur vergleichsweise leicht zu erfüllende und von Shannon deshalb auch nicht eigens thematisierte – Bedingung erfüllt ist, nämlich dass Sender und Empfänger sich sozusagen ‚sklavisch‘ an die Kodevereinbarung halten, die die semantische Beziehung zwischen Zeichen und Bezeichnetem regelt. In diesem letzteren, für das Gelingen des Informationsaustausches zwischen technischen Systemen absolut essentiellen Punkt sind die Verhältnisse in der Humankommunikation nun allerdings grundlegend anders gelagert. Der menschliche Emp-
190
Siegfried Frey
fänger ist keineswegs gezwungen – und auch nicht gewillt – für die Deutung der Information, die seinem Sensorium zugeführt wird, das Plazet von jemand anderem einzuholen. Er ist es vielmehr gewohnt – und besteht sogar in aller Regel darauf – selbst zu entscheiden, welche Zeichen er als ein Anzeichen für etwas wertet, welche er als irrelevant außer Betracht lässt und welche er als irreführend oder gar falsch zurückweist. Dass eine derartige in der technischen Kommunikation völlig undenkbare Praxis in der Humankommunikation gang und gäbe ist, hängt mit der Entwicklungsgeschichte biologischer Organismen zusammen. Lebende Wesen standen seit Urzeiten vor dem Problem, dass ihr Sinnesapparat mit einer Vielzahl von Reizen konfrontiert wird, über deren Relevanz der Organismus selbst zu befinden hat. Denn bis zum Zeitpunkt der Erfindung der Sprache konnte kein Lebewesen das andere fragen, welche Bedeutung einem bestimmten Zeichen zukomme. Es war vielmehr gezwungen, sich sozusagen selbst ‚einen Reim‘ auf all das zu machen, was seine Sinnesorgane vorfanden. Und da das Einzelwesen für die Adäquatheit seiner Deutungen buchstäblich mit seinem Leben haftete, war es geradezu selbstverständlich, dass es auch die ‚Definitionshoheit‘ für die Deutung der Reizgegebenheiten beanspruchte, mit denen es sich konfrontiert sah. Und zwar in dem Sinne, dass es all das, was es wahrnahm, buchstäblich so nahm als sei es wahr. Dementsprechend war bei biologischen Organismen über lange Zeiträume der Evolutionsgeschichte hinweg einzig und allein die pragmatische Beziehung zwischen dem Zeichen und seinem Interpreten für die Sinnstiftung maßgeblich (Frey, Kempter & Frenz, 1996). Im Falle biologischer Systeme gewinnen Zeichen ihre Bedeutung somit nicht etwa auf dem Wege über eine ‚Kodevereinbarung‘ wie das bei technischen Systemen zwingend notwendig ist. Sie entsteht vielmehr durch eine vom Wahrnehmungsapparat des Betrachters quasi ‚selbstherrlich‘ vorgenommene Bedeutungszuschreibung. Diese erfolgt, wie als erster der große Physiker und Sinnesphysiologe Hermann von Helmholtz (1821-1894) erkannte, auf der Grundlage einer prärationalen, weitgehend automatisiert verlaufenden Form der Informationsverarbeitung, für die er den Begriff „unbewusste Schlüsse“ geprägt hat. Dieser prärationale Mechanismus wurde durch die Erfindung der Sprache und der Entwicklung der Vernunft beim Menschen keineswegs außer Kraft gesetzt. Er arbeitet vielmehr nach wie vor, „unbeirrbar und unbelehrbar“, wie es der Verhaltensforscher und Nobelpreisträger Konrad Lorenz einmal ausdrückte, gemäß seiner eigenen archaischen Gesetze. Wie Helmholtz am Beispiel der emotionalisierenden Wirkungen erläuterte, die Schauspieler auf uns ausüben, sind derartige – auf einer rein pragmatischen Sinnstiftung beruhenden – unbewussten Schlüsse dafür verantwortlich, dass allein schon der bloße Anblick des nonverbalen, also gestischen und mimischen Verhaltens einer Person genügt, um auf Seiten des Betrachters eine gefühlsmäßige Einstellung gegenüber dem Betrachteten entstehen zu lassen, die eben, weil sie nicht rational begründet ist, sich als sehr widerstandsfähig gegen jede verstandesmäßige Kritik erweisen kann:
14 Dreamteam Mensch-Computer – Wer bestimmt die Spielregeln?
191
Ein Schauspieler, der einen alten Mann geschickt darstellt, ist auf der Bühne für uns auch ein alter Mann, so lange wir dem unmittelbaren Eindrucke freien Lauf lassen, und uns nicht gewaltsam besinnen, dass wir vom Theaterzettel her wissen, dieses sei der uns bekannte junge Schauspieler, welcher dort herumagiert. Wir halten ihn für zornig oder für leidend, je nachdem er uns die eine oder andere Art der Mienen und Gebärden zeigt; er erregt Schrecken oder Mitleiden in uns … und die begründete Überzeugung, dass dies alles nur Schein und Spiel sei, hilft durchaus nichts gegen unsere Gemütsbewegungen, so lange der Schauspieler nicht aus seiner Rolle fällt. Im Gegenteil ergreift und foltert uns eine solche lügenhafte Geschichte, der wir scheinbar persönlich beiwohnen, viel mehr, als es eine entsprechende wahre tun würde, von der wir einen trockenen aktenmäßigen Bericht lesen (Helmholtz, 1867:450).
Eine neue Art der Sinnstiftung Helmholtz’ Entdeckung, dass sowohl unsere Sinneswahrnehmungen als auch die dadurch spontan ausgelösten Gefühlsregungen ganz wesentlich durch unbewusste Schlüsse geprägt sind, sollte nun allerdings nicht den Blick dafür verstellen, dass mit homo loquens, dem sprechenden Menschen, erstmals in der Evolutionsgeschichte ein Wesen auftaucht, das nicht nur zu einer rein pragmatischen Sinnstiftung befähigt ist, sondern das sich zusätzlich mit Hilfe von Kodes verständigen kann. Und zwar deshalb, weil es ihm seine einzigartige neuronale Organisation gestattet, Zeichen zu verarbeiten, bei denen die Sinnstiftung auf eine radikal andere Weise zustande kommt, nämlich auf dem Wege über eine externe Verfügung. Wie jede einzelne der Tausenden von Sprachen unter Beweis stellt, die auf dieser Erde gesprochen werden, erfolgt die verbale Verständigung mit Hilfe von Lautketten, deren semantische Bedeutung absolut willkürlich festlegbar ist. Anders allerdings als dies bei nonverbalen Reizen der Fall ist, liegt die ‚Definitionshoheit‘ für die Bedeutungszuschreibung im Falle der Laut- und Schriftsprachen nicht etwa beim einzelnen Sprachnutzer. Die diesbezüglichen semantischen Festlegungen werden vielmehr von der Sprachgemeinschaft getroffen, die dem Einzelwesen die Bedeutung der Worte erstmals im Sinne eines ‚Kodes‘ von außen vorgibt. Die semantische Beziehung zwischen Zeichen und Bezeichnetem kann aus diesem Grunde vom Individuum auch nicht nach eigenem Belieben festgesetzt oder geändert werden. Dieses ist vielmehr gezwungen – jedenfalls insoweit es mitreden will – sich strikt an die von der Sprachgemeinschaft arbiträr festgelegten Bedeutungen der Lautketten zu halten, die den Sprachschatz konstituieren. Dies wiederum bedeutet nicht weniger, als dass die Definitionshoheit im Hinblick auf die Deutung von Zeichen, die alle anderen Lebewesen wie selbstverständlich beanspruchen, bei homo sapiens im Falle der Sprache – zumindest ein Stück weit – außer Kraft gesetzt wird. Dass in dieser unerhörten, in der Evolutionsgeschichte noch nie dagewesenen, partiellen Preisgabe von Autonomie der Zeichendeutung eine gewaltige Chance für das Individuum steckt, wird allerdings spätestens dann
192
Siegfried Frey
erkennbar, wenn man bedenkt, dass dem Einzelwesen mit der Sprache erstmals ein Instrument zur Verfügung steht, das es ihm gestattet, den äußerst engen Erfahrungshorizont zu durchbrechen, den es sich mit Hilfe seiner fünf Sinne selbst erschließen kann. Und zwar indem sich ihm vermittels dieses neuartigen Instruments die wahrhaft weltbewegende Möglichkeit eröffnet, auf das in den Köpfen seiner Mitmenschen vorhandene Wissen zurückzugreifen, sich mit deren Ideen und Meinungen vertraut zu machen und auf diese Weise Kenntnis von Dingen, Vorgängen und Sachverhalten zu erlangen, die die Einzelperson sich niemals aus eigener Kraft hätte beschaffen können.
Doppelte kommunikative Buchführung Die Nutzung dieser zweiten, einzig dem Menschen zur Verfügung stehenden, zusätzlichen Informationsquelle ist freilich nicht ohne Risiko. Denn die aus dem sozialen Umfeld mündlich oder schriftlich angelieferten Informationen tragen ja in der Regel keineswegs das Gütesiegel absoluter Verlässlichkeit. Sie stehen vielmehr üblicherweise in Konkurrenz zu ganz anders lautenden Aussagen, die andere Personen über denselben Sachverhalt machen. Hinzu kommt, dass ein Großteil der sprachlichen Äußerungen, mit denen wir tagtäglich konfrontiert werden, ja nicht etwa eigens von uns erbeten wurden, sondern ganz unaufgefordert an uns herangetragen werden. Es ist deshalb auch keineswegs gewährleistet, dass diese Mitteilungen in jedem Falle durch die uneigennützige Intention des Sprechers motiviert sind, den geistigen Horizont des Hörers zu erweiten. Vielmehr ist durchaus denkbar, dass der Informant in vielen Fällen durch die auf sprachlichem Wege verbreitete Information in Wahrheit lediglich seinen eigenen Interessen zu dienen versucht. Aus diesem Grunde ist der Empfänger in der Humankommunikation denn auch praktisch permanent mit dem Problem konfrontiert, sich darüber klar werden zu müssen, ob er der Mitteilung eines Informanten Glauben schenken oder ihr misstrauen will, ob er dessen Meinung beipflichten oder ihr widersprechen, dessen Handlungsvorschlag zustimmen oder ihn ablehnen soll. Die Ressourcen, die erforderlich wären, um sich die Information zu beschaffen, die zur Überprüfung der Richtigkeit einer Aussage bzw. zur Klärung des in Frage stehenden Sachverhalts notwendig sind, stehen dem Individuum nun aber in der Regel nicht zu Gebote. Insofern bleibt der Einzelperson im Hinblick auf die Frage, ob sie eine Aussage als richtig erachten bzw. ob sie sich eine bestimmte Position zu eigen machen will, gewissermaßen nur noch die Option zu entscheiden, ob sie den Informanten als glaubwürdig einstufen will bzw. ob und in wieweit sie bereit ist, der Person, die diese Position vertritt, ihr Vertrauen entgegenzubringen (Frey, 2005a). Der zentrale Unterschied zwischen der technischen und menschlichen Kommunikation entpuppt sich vor diesem Hintergrund letztlich als ein fundamentaler Unterschied in der Zweckorientierung: Anders als in der technischen Kommunikation
14 Dreamteam Mensch-Computer – Wer bestimmt die Spielregeln?
193
geht es in der Humankommunikation nicht nur um Verständnis, sondern um Einverständnis. Ob dieses Einverständnis gewonnen werden kann, oder aber verweigert wird, entscheidet sich, wie wir heute wissen, im Zuge einer quasi „doppelten kommunikativen Buchführung“ (Frey, 1992). Diese bewirkt, dass die Kommunikationspartner sich keineswegs darauf beschränken, lediglich den Inhalt der Mitteilungen ihres Gegenübers zur Kenntnis zu nehmen. Sie machen sich vielmehr stets auch ein Bild über die Informationsquelle selbst, und zwar indem sie sich eine Meinung darüber bilden, was für ein Mensch der Informant wohl selbst sei. Der Urteilsprozess, in dessen Verlauf sich unser ‚Bild vom Andern‘ konstituiert, erfolgt meist ganz automatisch, in Form Helmholtz’scher unbewusster Schlüsse, sodass der Wahrnehmende in der Regel gar nicht angeben kann, welche Reizgegebenheiten ihn zu seinem jeweiligen Urteil veranlasst haben. Dessen ungeachtet drängt sich ihm das unbewusst zustande gekommene Verdikt oft in einer Weise auf, dass er sich seines ‚Eindrucks nicht erwehren‘ kann. Insofern hängt es in hohem Maße vom Ergebnis des aufgrund unbewusster Schlussfolgerungen gefällten Urteils ab, wie sich das Verhältnis der Kommunikationspartner zueinander strukturiert; so etwa, ob deren Zusammenwirken eher kompetitive oder kooperative Züge annimmt; ob die von den organisatorischen Rahmenbedingungen vorgegebenen Machtverhältnisse anerkannt oder in Frage gestellt werden, ob sich gegenseitig Sympathie oder Antipathie entwickelt, ob man sich – im Sinne der doppelten kommunikativen Buchführung – bestimmte, für das soziale Zusammenleben wichtige Eigenschaften, wie etwa Glaubwürdigkeit, Zuverlässigkeit, Kompetenz, Hilfsbereitschaft zuschreibt oder abspricht.
Anthropomorphe Interaktionsagenten Dass derartige Urteilsprozesse nicht nur in der zwischenmenschlichen Verständigung zum Tragen kommen, sondern auch im Rahmen der Mensch-Technik-Interaktion wirksam werden, wird allein schon an den viel beklagten Akzeptanzproblemen deutlich, die ja in gewisser Weise das Pendant zu der emotionalen Abneigung darstellen, die wir im Humanbereich als Ergebnis der doppelten kommunikativen Buchführung vorfinden. Insofern wird man sich insbesondere im Zuge des Ausbaus der ambient intelligence intensiv mit der Frage auseinanderzusetzen haben, wie das Dialogverhalten des technischen Kommunikationspartners gestaltet werden muss, damit es bei seinem menschlichen Gegenüber positive und nicht etwa aversive Reaktionen hervorruft. Wie problematisch allerdings Versuche sind, dieses Problem ohne eine gründliche Kenntnis der pragmatisch begründeten Rezeptionsmechanismen angehen zu wollen, die der menschlichen Informationsverarbeitung zugrunde liegen, zeigt sich in aller Deutlichkeit an den gegenwärtig im großen Stil unternommenen Versuchen, durch die Entwicklung anthropomorpher Interaktionsagenten dem Menschen die Nutzung
194
Siegfried Frey
technischer Systeme angenehmer machen zu wollen. Die Erkenntnis, dass Kunstfiguren buchstäblich Herz und Verstand des menschlichen Betrachters zu erobern vermögen, ist so alt wie die Menschheit. Und sie führte dazu, dass unsere Spezies über den gesamten Verlauf ihrer Entwicklungsgeschichte hinweg damit befasst war, Bildnisse ihrer selbst anzufertigen und auszustellen – angefangen von den Höhlenmalereien der Steinzeit, über die Statuen der Griechen und Römer, die Gemälde der Renaissancekunst, die Schauspielkunst des 18. Jahrhunderts, bis hin zu den Bewegtbildpräsentationen, die den Menschen des 21. Jahrhunderts tagtäglich vor den Bildschirm locken (Frey, 2005b, 2005c). Insofern liegt die Annahme gewiss nahe, dass die ‚Atmosphäre‘ und die Effizienz des Zusammenwirkens von Mensch und Technik sich ganz entscheidend verbessern ließen, wenn es gelänge, computer-animierte Kunstfiguren im Sinne sog. „virtual humans“ zu erzeugen, die in der Lage sind, durch ihr Erscheinungsbild und die Art und Weise ihres gestischen und mimischen Bewegungsverhaltens dafür zu sorgen, dass – im Sinne der doppelten kommunikativen Buchführung – die Bereitschaft des Menschen zur ‚Kontaktaufnahme‘ mit dem technischen System sich erhöht und dauerhaft gesichert bleibt. Eine in dieser Hinsicht erfolgreiche ‚Charakteranimation‘ kann freilich nur dann gelingen, wenn sich der Entwickler darüber im Klaren ist, welche kognitiven und emotionalen Wirkungen von den jeweiligen nonverbalen Reizgegebenheiten ausgehen, mit denen er seinen virtual human ausstattet. Dass die dafür erforderlichen Kenntnisse nun aber nicht jedermann in die Wiege gelegt sind, zeigt sich schon daran, dass der Umgang mit dieser Materie über die Jahrhunderte hinweg das Ressort von Künstlern blieb, die aus ihnen oft selbst nicht erklärlichen Gründen die seltene Fähigkeit entwickelt hatten, ihre Werke in einer Weise zu gestalten, dass diese im Betrachter einen ganz bestimmten Eindruck hervorrufen. Und dass selbst diesem – im Spiel mit dem pragmatisch deutenden Gehirn des Betrachters besonders begabten – Personenkreis die Erzeugung einer bestimmten Wirkung in der Regel nicht leicht fiel, wird an dem oft ganz erheblichen Aufwand an Zeit und Mühen deutlich, den selbst große Künstler benötigten, um wirkungsvolle Artefakte schaffen zu können. Bedenkt man zudem, dass sich Generationen von Kunstwissenschaftlern vergeblich darum bemüht haben zu ergründen, wie es möglich wurde, dass Bildnisse, wie sie beispielsweise ein Leonardo schuf, eine so tief greifende, den Betrachter innerlich bewegende Wirkung erzielen, dass es bis heute rätselhaft geblieben ist, worauf sich die enorme Wirkung von Photographien gründet, wie sie ein Helmut Newton zu erzeugen vermochte, und dass im Bereich der Schauspielkunst es bis heute ein Geheimnis blieb, worauf die unwiderstehliche Wirkung eines James Dean oder Humphrey Bogart beruht, scheint es geradezu verwegen anzunehmen, dass es ausreichen könnte, den Prozess der Erzeugung von Polygonen und des Bild-Rendering zu beherrschen, um Avatare kreieren zu können, deren nonverbales Verhalten so entzückend gestaltet ist, dass wir tatsächlich beginnen, die Computer ins Herz zu schließen.
14 Dreamteam Mensch-Computer – Wer bestimmt die Spielregeln?
195
Gerade weil es sich dabei um den Umgang mit höchst subtilen und gleichzeitig äußerst wirkmächtigen Phänomenen handelt, ist viel eher damit zu rechnen, dass die in bester Absicht begonnenen, jedoch ohne ausreichende Kenntnis menschlicher Rezeptionsprozesse erzeugten anthropomorphen Interaktionsagenten aufseiten des menschlichen Betrachters geradezu das Gegenteil von dem bewirken, was deren Schöpfer intendierten. Dass ein derartiges Prozedere sogar Gefahr läuft, kontraproduktive Ergebnisse zu generieren, die einen ganzen Dienst schon vorab zu diskreditieren vermögen, hat die berühmte ‚Büroklammer‘ bereits nachdrücklich unter Beweis gestellt.
Das Primat der Bewegung Es ist nicht schwierig, den Grund ausfindig zu machen, weshalb gerade die Gestaltung der mit dem Auge wahrgenommenen nonverbalen Aspekte anthropomorpher Interaktionsagenten ganz besondere Probleme aufwirft. Er liegt in der lediglich pragmatisch begründeten Bedeutung dieser Zeichen. Denn ungeachtet der Tatsache, dass wir das gestische und mimische Verhalten im Alltag als einen ganz natürlichen Bestandteil des menschlichen Kommunikationsverhaltens erleben, steht uns für dessen Deutung kein Duden, kein Lexikon zur Verfügung, in dem wir die ‚Bedeutung‘ nonverbaler Reize ablesen, die geheime ‚Semantik‘ von Gestik, Mimik, Körperhaltung nachschlagen könnten. Während somit für den verbalen Anteil der Kommunikation explizite Sender und Empfänger bindende Bedeutungsrelationen vorliegen, gibt es – abgesehen von einer kleinen Anzahl von Bewegungstypen wie Schulterzucken oder Kopfschütteln, die bestimmte Redefloskeln ersetzen – hinsichtlich der nichtsprachlichen Aspekte des Kommunikationsverhaltens keinerlei auf Vereinbarung beruhende verbindliche Sprachregelung. Dass diesen Phänomenen gleichwohl eine kaum zu überschätzende Bedeutung im Rahmen der zwischenmenschlichen Verständigung zukommt, liegt an dem Umstand, dass diese in hohem Maße unser ‚Bild vom Andern‘ prägen und so – auf dem Wege über die doppelte kommunikative Buchführung – erheblichen Einfluss auf die ‚Kontaktbereitschaft‘ nehmen. Bereits der bloße Anblick einer Person löst, wie die Rezeptionsuntersuchungen der letzten Jahre vielfach gezeigt haben, spontan und unbewusst ablaufende Deutungsprozesse aus, die in einer Art Schnellschussverfahren eine innere emotionale Einstellung zum Gegenüber in Form von Präferenzen und Abwehrhaltungen erzeugen und auf diese Weise den Verlauf und das Ergebnis der zwischenmenschlichen Verständigung entscheidend mitbestimmen. So zeigte sich in einer Versuchsreihe, in der wir eine Serie von Porträtfotos Beurteilern tachistoskopisch, nur für einen Sekundenbruchteil darboten, dass eine Expositionszeit von 250 Millisekunden genügt, um ein höchst nuanciertes Bild vom Anderen entstehen zu lassen, bei dem sich u.a. entscheidet, ob jemand als autoritär, sympathisch, gefühlsbetont, hinterhältig, intelligent, langweilig eingestuft wird. Ebenso blitzschnell werden aufgrund solcher optischer Eindrücke Einstellungen geschaffen,
196
Siegfried Frey
die festlegen, ob man die wahrgenommene Person gerne als Kollegen, Vorgesetzten, Partner oder Bekannten haben möchte (Frey, 2000). Die Herausarbeitung der für solche Urteile maßgeblichen Elemente ist natürlich eine unabdingbare Voraussetzung für die Beantwortung der Frage, wie das Aussehen und das Bewegungsverhalten eines virtual human modelliert werden muss, damit dieser aufseiten seines menschlichen Gegenübers positive und nicht etwa – wie bisher noch allzu oft der Fall – aversive Reaktionen auslöst. Dabei versteht es sich von selbst, dass man den Stimulusinput möglichst naturgetreu gestalten muss, wenn man die Frage beantworten will, auf welche spezifischen Merkmale der komplexen Reizgegebenheit der mit der unbewussten Beschlussfassung betraute pragmatische Interpreter anspricht und welche ihm wenig oder nichts bedeuten. Während nun aber im Hinblick auf eine realistischere Gestaltung des äußeren Erscheinungsbildes von virtual humans nach und nach beachtliche Fortschritte erzielt werden konnten, hat die Entwicklung auf dem Gebiet der Modellierung natürlicher menschlicher Bewegungen über Jahrzehnte hinweg praktisch stagniert. Ungeachtet der exponentiell angewachsenen Leistungsfähigkeit der Informationstechnologie und ungeachtet riesiger finanzieller Investition auf diesem, für die Akzeptanz der Informationstechnik fraglos äußerst wichtigen Gebiet, blieb die ‚natürliche‘ menschliche Bewegung für die Computeranimation der nicht greifbare ‚heilige Gral‘. Die Lösung dieser Aufgabe ist aber fraglos von zentraler Bedeutung, wenn es gelingen soll, anthropomorphe Interaktionsagenten zu erzeugen, deren Erscheinen als willkommener Beistand eines sympathischen Partners empfunden wird und nicht etwa von vorneherein den Eindruck erweckt, es handle sich hier um den lästigen Einmischungsversuch eines hilflosen Helfers. Denn das Bewegungsverhalten einer Person steuert, wie die Ergebnisse aus zahlreichen Rezeptionsstudien unübersehbar deutlich machen, den Prozess der spontanen Eigenschaftszuschreibung in weitaus stärkerem Maße als deren statisches physiognomisches Aussehen. Illustrieren kann man dies am Beispiel einer Untersuchung, bei der wir das im Rahmen von Nachrichtensendungen des amerikanischen und französischen Fernsehens dargebotene Bewegungsverhalten verschiedener Politiker von derselben computer-animierten Puppe imitieren ließen und auf diese Weise den Einfluss des physiognomischen Aspekts des Erscheinungsbildes gänzlich eliminierten (Bild 1). Wie aus dem Vergleich der Persönlichkeitsprofile hervorgeht, die wir zum einen für die Originalperson und zum anderen für die – die Bewegungen der Originalperson imitierende – Puppe ermittelten, gelangten die Beurteiler allein aufgrund der Bewegungsinformation praktisch zum selben Urteil, wie wenn sie den Politiker in Person sahen.
14 Dreamteam Mensch-Computer – Wer bestimmt die Spielregeln?
197
Bild 1 Quelle: Frey, S. Die Macht des Bildes. Der Einfluss der nonverbalen Kommunikation auf Kultur und Politik. Bern: Huber, 2000, S. 137
198
Siegfried Frey
Sowohl der etwas lasche, undifferenzierte Eindruck, den der amerikanische Politiker Smith (obere Grafik) gemacht hatte, wie auch die höchst positive Meinung, die sie von Madame Barzach gewonnen hatten (mittlere Grafik) und selbst die dezidiert negative Charakterisierung, die sie sich von Jesse Helms bildeten, fanden sich in den Urteilsdaten der Gruppe, die sich zum Eigenschaftsprofil der Puppe äußerte, praktisch unverändert wieder. Ja, der Konsensus erstreckte sich überraschenderweise sogar auf die Beurteilung der ‚Schönheit‘ der Stimuluspersonen: die Puppe, die sich wie Madame Barzach bewegte, fanden die Betrachter ziemlich attraktiv (wenn auch nicht ganz so sehr wie das Original). Wenn sie sich dagegen wie Helms oder Smith gebärdete, galt sie ihnen als genau so hässlich, wie ihnen diese Politiker in natura vorgekommen waren. Fragt man nach den nonverbalen Verhaltenselementen, die solche Urteile auslösen, stößt man auf weitere Überraschungen: Aus bisher erst teilweise aufgeklärten Gründen misst unser visueller Sinn beispielsweise den seitlichen Veränderungen der Kopfhaltung ein enormes Gewicht bei. Bereits in unseren ersten, schon in den 1980er Jahren durchgeführten Rezeptionsstudien – die den Ursachen der Faszinationskraft der Malerei nachgingen – hatte sich gezeigt, dass dieser scheinbar ganz nebensächliche Aspekt des Bewegungsverhaltens den Eindruck, den wir von einer Person gewinnen, maßgeblich bestimmt. Dieselben Personen, die zunächst als „sympathisch, empfindsam, zärtlich, ehrlich, bescheiden“ wahrgenommen wurden, galten den Beurteilern auf einmal als „unsympathisch, kalt, hinterlistig, arrogant, hart, abweisend“ – bloß weil sie den Kopf ein bisschen anders hielten. Und ganz im Sinne des Helmholtz'schen unbewussten Schlusses stellte sich dieser Eindruck völlig spontan ein, war für die Betrachter aus den verschiedensten Ländern und Kulturen absolut zwingend und ließ sich selbst dann nicht aus der Welt schaffen, wenn die Versuchspersonen genau sahen, welch vergleichsweise läppischer Anlass sie zu ihrer so grundlegenden Meinungsänderung über die betrachtete Person verleitet hatte (Bild 2).
„Uncanny Valley“ Befunde dieser Art werfen ein neues Licht auch auf Beobachtungen, die in den letzten Jahren unter dem Stichwort „uncanny valley“ für erheblichen Diskussionsstoff unter den mit der Gestaltung von Avataren befassten Entwicklern gesorgt haben. Geprägt wurde der Begriff bereits in den 1970er Jahren von dem japanischen Robotergestalter Masahiro Mori, der damit das irritierende Phänomen beschrieb, dass Menschen auf die Vorführung der Künste technisch wirkender Roboter mit Entzücken reagieren, dass ihnen aber vor einem mehr menschlich wirkenden Roboter dermaßen ‚schaudert‘, dass die Sympathiewerte sozusagen in ein tiefes ‚Tal‘ rutschen. Das uncanny valley Phänomen ist denn auch vielfach als Erklärung dafür genannt worden, dass Avatare selbst dann auf wenig Gegenliebe stießen, wenn es gelang, deren äußeres physiognomisches Erscheinungsbild durchaus menschenähn-
14 Dreamteam Mensch-Computer – Wer bestimmt die Spielregeln?
199
Bild 2 Quelle: Frey, S. Die Macht des Bildes. Der Einfluss der nonverbalen Kommunikation auf Kultur und Politik. Bern: Huber, 2000, S. 139
200
Siegfried Frey
lich zu gestalten. Manche Stimmen haben gar die Auffassung vertreten, dass die Schaffung anthropomorpher Interaktionsagenten, die in der Lage sind, als ein dem Menschen willkommener technischer Partner zu fungieren, in Anbetracht des uncanny valley-Phänomens gar nicht gelingen könne. Unsere eigenen Untersuchungsergebnisse weisen auch hier in eine völlig andere Richtung. Angesichts des Primats der Bewegung ist es nämlich durchaus denkbar, dass im Falle eines ganz fremdartigen, technischen Aussehens eines Avatars, selbst die ungewöhnlichsten, fremdartigsten Bewegungen als stimmig und somit auch als akzeptabel wirken. In dem Maße freilich, in dem das Aussehen eines Avatars menschenähnliche Züge annimmt, muss eine als unnatürlich empfundene Bewegungsweise fast zwangsläufig zu dem Eindruck führen: „gewollt aber nicht gekonnt“. Unter diesen Voraussetzungen könnte selbst ein photorealistisches Aussehen eines mit menschlichen Zügen versehenen Avatars nicht etwa Bewunderung, sondern – insoweit dieser nicht einfach ‚schauderhaft‘ im Sinne Masahiro Moris wirkt – bestenfalls Mitleid mit deren Schöpfer erregen. Dass umgekehrt ein mit gewinnendem Bewegungsverhalten ausgestattetes Wesen selbst bei abstoßender Physiognomik tief empfundene Sympathiegefühle auszulösen vermag, hat bereits in den frühen 80er Jahren auf höchst eindrückliche Weise die runzlige Figur mit dem Schildkrötenkopf und den knöcherigen Fingern in Steven Spielbergs Film E.T. bewiesen, die das Herz von Millionen Menschen weltweit zu erobern verstand. Auch die Puppe mit dem etwas dümmlich geratenen Gesicht, die in unseren eigenen Experimenten das elegante Bewegungsverhalten der ehemaligen französischen Ministerin Michèle Barzach nachvollzog, kommt hinsichtlich ihrer Sympathiewerte wahrlich nicht schlecht weg. Insofern bestätigt sich hier einmal mehr, dass es letztlich nicht vom Aussehen, sondern von der Art und Weise der Bewegung eines virtual human abhängt, wie dieser beim menschlichen Betrachter ankommt. Dies gilt in nicht geringerem Maße für die Entstehung von Antipathie. Denn auch in dieser Hinsicht deuten die in unserem Experiment ermittelten Befunde darauf hin, dass Aversionen, die durch das Bewegungsverhalten eines Avatars ausgelöst werden, durch die Umgestaltung von dessen äußerem Erscheinungsbild nicht verschwinden. So nützte es dem Ansehen der Puppe wenig, dass sie mit ihrem unbedarften Gesicht die Identität des amerikanischen Politikers Jesse Helms tarnte, der von sich selbst sagte „some folks say I’m scary“. Allein schon weil sie sich wie der als „Senator No“ verschriene langjährige Vorsitzende des mächtigen US Foreign Relations Committee bewegte, handelte sie sich von den Beurteilern praktisch dieselben negativen Eigenschaftszuschreibungen ein wie dieser selbst. Und tatsächlich konnte im Rahmen unserer weiteren Untersuchungen bereits nachgewiesen werden, dass bei einem virtual human, der die Betrachter aufgrund seiner Bewegungsweise für sich einzunehmen vermag, ein Plus an Menschenähnlichkeit keineswegs zu einem Minus an Attraktivität führen muss, wie dies aufgrund der uncanny valley-Hypothese zu erwarten wäre. Insoweit es nämlich tatsächlich
14 Dreamteam Mensch-Computer – Wer bestimmt die Spielregeln?
201
gelingt, dessen Bewegungen natürlich zu gestalten – wie dies mit Hilfe des jüngst entwickelten, nach dem Prinzip des Berner Systems konzipierten Verfahren der Skriptanimation erstmals möglich wurde (Frey, 1984; Kempter, 1999) – führt ein dem menschlichen Erscheinungsbild angenähertes Aussehen zu einem nicht unerheblichen zusätzlichen Anstieg der Sympathiewerte. Schlagend illustrieren lässt sich dies am Beispiel einer Untersuchung, in der wir das äußerst komplexe Bewegungsverhalten, das der prominente TV-Moderator Jean Pütz in einer seiner Sendungen darbot, von einem Avatar imitieren ließen, der bezüglich seines menschenähnlichen Aussehens ganz passabel gestaltet war. Die Reaktion der Rezipienten auf den Auftritt des virtual human, der sich wie ein Doppelgänger des beliebten, über ein viertel Jahrhundert hinweg populär gebliebenen TV-Moderators gebärdete, war eindeutig und stellte einmal mehr nachdrücklich unter Beweis, dass es die Bewegung ist, die das Herz bewegt.
Der aktuelle Problemstand Im Rückblick auf die Entwicklung, die sich in der Kommunikationsforschung in der zweiten Hälfte des vergangenen Jahrhunderts vollzogen hat, kann man sagen, dass diese in einer vergleichsweise kurzen Zeitspanne weit vorangekommen ist. Und zwar sowohl im Hinblick auf das theoretische Verständnis der subtilen Prozesse, die in der Humankommunikation wirksam werden, als auch hinsichtlich der Schaffung eines höchst leistungsfähigen methodischen Rüstzeugs zur empirischen Untersuchung der dynamischen Wechselwirkung zwischen Mensch und Technik (Möller, 2003). Mit Hilfe dieses Instrumentariums ist es in den letzten Jahren auch zunehmend möglich geworden, jene, für den Verlauf und das Ergebnis kommunikativer Bemühungen hoch bedeutsamen, auf rein pragmatisch begründeter Sinnstiftung beruhenden nonverbalen Verhaltenselemente ausfindig zu machen, die unser ‚Bild vom Andern‘ entscheidend prägen (Zysk, 2002). Unübersehbar deutlich wird bei einem solchen Rückblick allerdings auch, dass es sich für die Entwicklung einer guten Beziehung zwischen Mensch und Technik höchst nachteilig ausgewirkt hat, dass die pragmatische Dimension der Kommunikation in den theoretischen Modellvorstellungen, die den Bemühungen zur Optimierung der Mensch-Technik-Interaktion zugrunde gelegt wurden, keinerlei Beachtung fand. Denn in dem Maße, in dem die Beziehung zwischen den Zeichen und ihren Interpreten außerhalb des Gesichtsfelds des Konstrukteurs verblieb, war dieser selbst bei bester Absicht und entgegen aller anders lautenden Lippenbekenntnisse schlechterdings gar nicht in der Lage, die Bedürfnisse in Rechnung zu stellen, die der Empfänger im Hinblick auf die Gestaltung eines ihm angenehmen Kommunikationsprozesses hegt.
202
Siegfried Frey
Angesichts dieses Wissensdefizits war es wohl unvermeidlich, dass in großer Zahl technische Systeme entstanden, die ihren menschlichen Interaktionspartner nicht nur unzureichend unterstützten, sondern die ihn immer wieder in ‚Dialogunfälle‘ verstrickten und ihn so in der Entfaltung seiner eigenen Fähigkeiten aktiv behinderten. Dass diese Probleme nach wie vor selbst auf Gebieten virulent sind, in denen das Zusammenwirken von Mensch und Technik inzwischen mehr oder weniger zufrieden stellend zu funktionieren scheint, hat jüngst eine experimentelle Studie zur Usability eines populären Textverarbeitungssystems deutlich gemacht. Dabei zeigte sich, dass von der Vielzahl der Arbeitsschritte, die die Probanden zum Zweck der Erledigung einer komplexen Editieraufgabe tätigten, derart viele überflüssig und derart wenige zielführend waren, dass „sich der mit nutzloser Aktivität verbrachte Zeitanteil zu mehr als 60 Prozent der Gesamtarbeitszeit“ addierte (Möller, 2003:68). Die Ursache für die in diesen Daten zutage getretene enorme Zeitverschwendung, ließ sich unschwer in der Art und Weise des ‚Dialogverhaltens‘ des Texteditors lokalisieren, das von massiven Verletzungen der Grice’schen Postulate geradezu wimmelt. Befunde dieser Art geben nicht nur beredtes Zeugnis von dem enormen Ausmaß gegenwärtig noch brach liegender Produktivitätsreserven im Zusammenwirken von Mensch und Technik. Sie machen auch einmal mehr deutlich, dass unter den in diesem Bereich aktuell gegebenen Rahmenbedingungen ein erfolgreiches Zusammenwirken zwischen dem technischen System und seinem Nutzer überhaupt nur dadurch gelingen kann, dass der Mensch die Flexibilität entwickelt, die zu erbringen für die Technik im Grunde ja viel einfacher wäre. Dies wiederum bedeutet nun aber nicht weniger, als dass der um die Nutzung der Informationstechnologie bemühte menschliche Kommunikationspartner letztlich eben doch, wenn auch zähneknirschend, hinzunehmen hat, dass ihm sein technischer Partner die Spielregeln diktiert.
Ausblick Insofern muss man wohl sagen, dass ein Großteil der Akzeptanzprobleme, mit denen die Informationstechnologie heute zu kämpfen hat, überhaupt erst durch die Wahl eines Paradigmas erzeugt wurden, das auf die Ähnlichkeiten zwischen der menschlichen und der technischen Kommunikation abhob und die Unterschiede ausblendete. Wie wir nun aber spätestens seit Thomas Kuhns großem Werk The Structure of Scientific Revolutions wissen, das Charles Morris als letzten, abschließenden Beitrag zur International Encyclopedia of Unified Science veröffentlichte, sind Paradigmen, wenn sie sich in der Wissenschaft erst einmal etabliert haben, äußerst zählebig. Und zwar vor allem deshalb, weil diese oft buchstäblich bis zum letzten Atemzug mit der vollen, uneingeschränkten Unterstützung des Wissenschaftsmanagements rechnen können. Insofern ist es keineswegs ungewöhnlich, dass selbst angesichts eines zunehmend offenkundiger werdenden Versagens eines weithin praktizierten Paradigmas sich zunächst einmal keinerlei Veränderung im Gang der
14 Dreamteam Mensch-Computer – Wer bestimmt die Spielregeln?
203
Forschung bemerkbar macht. Selbst neue Forschungsergebnisse, die die Unzulänglichkeit oder gar Unhaltbarkeit des überkommenen Paradigmas unübersehbar machen, ändern daran nichts. Sie bewirken vielmehr, wie Kuhn an zahlreichen Beispielen aus der Wissenschaftsgeschichte detailliert aufzeigte, eine zunehmende innere Erstarrung und eine mit sich häufenden Fehlschlägen immer mehr zunehmende Tendenz zur Abschottung und Einigelung. Genau diese Haltung bereitet nun aber, indem sie den endgültigen Niedergang des alten Paradigmas einleitet, den Boden für die Entstehung eines neuen. Und zwar eben weil das Beharren auf einem falsch gewählten Paradigma, wie Kuhns brillante Analyse zeigte, zwangsläufig zu einer Krise führen muss, die sich immer mehr zuspitzt, bis dann schließlich der Zeitpunkt gekommen ist, zu dem die falschen Prämissen, die dem herrschenden Paradigma zugrunde liegen, so offenkundig geworden sind, dass es schlechterdings nicht mehr haltbar ist. Damit ist nun aber auch der Moment gekommen, in dem dieses umgehend durch ein neues, den realen Gegebenheiten in höherem Maße gerecht werdendes Paradigma ersetzt wird. Die damit einhergehende, grundlegende gedankliche Neuorientierung bringt, wie die Wissenschaftsgeschichte zeigt, das Verständnis der Dinge dann oft geradezu sprunghaft voran, sodass auf einmal Lösungen für Probleme möglich werden, die bis dahin als rundweg unlösbar gegolten hatten. Insofern muss man, gerade weil die ‚Beziehung‘ zwischen dem Menschen und seinem technischen Interaktionspartner unverkennbar auf eine Krise zutreibt, sich über den wissenschaftlichen Fortschritt im Grunde nicht wirklich Sorgen machen, sondern kann sicher sein, dass er eintreffen wird. Und es scheint ja fast schon wie ein Menetekel für das Zuspitzen dieser Krise, dass Mensch und Technik sich inzwischen dermaßen fremd geworden sind, dass es heutzutage einer ganzen Branche unmöglich erscheint zu prophezeien wonach das Herz des Kunden verlangt bzw. welche Produkte bei ihm auf Desinteresse stoßen oder gar seinen Widerwillen erregen. Und so ist es durchaus denkbar, dass womöglich schon im Zuge des projektierten Ausbaus der ambient intelligence die Akzeptanzkrise der Informationstechnologie sich in einer Weise zuspitzt, dass ein Paradigmenwechsel und damit auch der Fortschritt im Sinne Kuhns näher rückt. Auf jeden Fall aber wird die diesbezügliche Entwicklung in ihre entscheidende Phase treten, wenn die gegenwärtig mit so gewaltigem finanziellen Aufwand entwickelten virtual humans auf den Bildschirmen auftauchen und mit ihrem Verhalten die realen Menschen in Scharen verscheuchen. Ob man freilich gut beraten ist, mit der Neuorientierung der Forschungsarbeit auf dem Gebiet der Mensch-Technik-Interaktion einfach so lange zu warten, bis auf tradiertem Wege sozusagen ‚nichts mehr geht‘ und sich der Fortschritt auf dem von Kuhn beschriebenen Wege quasi von alleine einstellt, ist natürlich eine andere Frage.
204
Siegfried Frey
Literatur Apel, K.-O. (1973). Charles W. Morris und das Programm einer pragmatisch integrierten Semiotik. In: Zeichen, Sprache und Verhalten (C.W. Morris, Hrsg.), 9-66. Düsseldorf: Schwann. Frey, S. (1984). Die nonverbale Kommunikation. SEL-Stiftungs-Reihe 1. Stuttgart: SELStiftung für technische und wirtschaftliche Kommunikationsforschung im Stifterverband für die Deutsche Wissenschaft. Frey, S. (1992). Funktionsprinzipien der Humankommunikation und der technischen Kommunikation. In: Informationstechnische Gesellschaft im VDE (Hrsg.): Nutzung und Technik von Kommunikationsendgeräten. ITG-Fachbericht 121, 25-38. Berlin: VDEVerlag. Frey, S., Kempter, G., and Frenz, H.G. (1996). Theoretische Grundlagen der multimedialen Kommunikation. Spektrum der Wissenschaft 8/1996, 32-38. Frey, S. (1998). Prejudice and Inferential Communication: A New Look at an Old Problem. In: I. Eibl-Eibesfeldt and F. Salter (eds.) Indoctrinability, Ideology and Warfare. Evolutionary Perspectives. 189-217. Oxford: Berghan. Frey, S. (1999). Neue Wege in der Kommunikationsforschung. In: D. Ganten, E. MeyerGalow, H.-H. Ropers, H. Scheich, H. Schwarz, K. Urban, E. Truscheit (Hrsg.) Gene, Neurone, Qubits & Co. Unsere Welten der Information. 45-60. Stuttgart: Hirzel. Frey, S. (2000). Die Macht des Bildes. Der Einfluss der nonverbalen Kommunikation auf Kultur und Politik. Bern: Huber. Frey, S. (2005a). Das Bild vom Andern: Funktionsprinzipien der visuellen Eindrucksbildung. In: R. Schnell (Hrsg.) Wahrnehmung, Kognition, Ästhetik. Neurobiologie und Medienwissenschaften. 111-138. Bielefeld: Transkript. Frey, S. (2005b). Spellbound by Images. In: A. Zerdick, A. Picot, K. Schrape, J. Burgelman, R. Silverstone, V. Feldmann, C. Wernik, C. Wolff (eds.) E-Merging Media. Communication and the Media Economy of the Future. 127-141. Berlin: Springer. Frey, S. (2005c). Das Regime des Image. Bilder und Macht im 21. Jahrhundert. In: K. Bering & R. Niehoff (Hrsg.) Bilder. Eine Herausforderung für die Bildung. 21-46. Oberhausen: Athena. Geiser, G. (1998). Mensch-Maschine-Kommunikation: Warum entstehen „benutzungsfeindliche“ Geräte? In: Informationstechnische Gesellschaft im VDE (Hrsg.). Technik für den Menschen. Gestaltung und Einsatz benutzerfreundlicher Produkte. ITGFachbericht 154, 7-14. Berlin: VDE-Verlag. Grice, H.P. (1989). Studies in Way of Words. Boston: Harvard University Press. Helmholtz, H. (1867). Handbuch der physiologischen Optik. In: G. Karsten (Hrsg.) Allgemeine Encyklopädie der Physik, Vol. 9. Leipzig: Voss. Kempter, G. (1999). Das Bild vom Anderen. Skriptanimation als Methode zur Untersuchung spontaner Attributionsprozesse. Lengerich: Pabst.
14 Dreamteam Mensch-Computer – Wer bestimmt die Spielregeln?
205
Kuhn, T. (1962). The Structure of Scientific Revolutions. In: O. Neurath, R. Carnap and C. Morris (eds.). International Encyclopedia of Unified Science, Vol. 2, No.2, pp. 1-172. Chicago: The University of Chicago Press. Miller, G.A. (1951). Language and Communication. New York: McGraw-Hill. Miller, G.A. (1956). The Human Link in Communication Systems. Proceedings of the National Electronics Conference, Vol. 12, 395-400. Miller, G.A. (1968). The Psychology of Communication. Seven Essays. London: Allen Lane the Penguin Press. Möller, C. (1999). Interaktionsverlaufsanalyse (IVA) als Methode zur Effizienzsteigerung des Mensch-Maschine-Systems. In: D. Ganten, E. Meyer-Galow, H.-H. Ropers, H. Scheich, H. Schwarz, K. Urban, E. Truscheit (Hrsg.) Gene, Neurone, Qubits & Co. Unsere Welten der Information. 59. Stuttgart: Hirzel. Möller, C. (2003). Dreamteam Mensch-Computer. Neue Wege zur nutzergerechten Gestaltung des Mensch-Maschine-Dialogs. Dissertationsschrift, Gerhard-Mercator-Universität Duisburg-Essen. http://www.ub.uni-duisburg.de/ETD-db/theses/available/duett-020920 04-134931/unrestricted/DissMoeller.pdf Mori, M. (1982). The Buddha in the Robot. Tokyo: Charles E. Tuttle Morris, C. W. (1938). Foundations of the Theory of Signs. In: O. Neurath, R. Carnap and C. Morris (eds.). International Encyclopedia of Unified Science, Vol. 1, No.2, pp. 77-138. Chicago: The University of Chicago Press. Morris, C. (1946). Signs, Language and Behavior. New York: Prentice-Hall. Shannon, C. (1948). A Mathematical Theory of Communication. The Bell System Technical Journal, 27, 379-423, 623-56. Shannon, C. (1938). A Symbolic Analysis of Relay and Switching Circuits. American Institute of Electrical Engineers Transactions, 57, 713-23. Weaver, W. (1949). The Mathematics of Communication. Scientific American, 181, 11-15. Zysk, W. (2002). Körpersprache – Eine neue Sicht. Dissertationsschrift, Gerhard-MercatorUniversität Duisburg.
15 Der Avatar: „Ein Wesen, eine Spielfigur, ein Medium, oder ein UI-Element?“ Prof. Ulrike Spierling Fachhochschule Erfurt Einführung Im Rahmen der Diskussion um Ambient Intelligence wurde die Frage nach geeigneten Arten der Mensch-Maschine Kommunikation wieder neu gestellt. Die Informationstechnologie, die sich dem Menschen vermehrt anpassen soll, induziert einen neuartigen „Brückenschlag“ zwischen Mensch und Technik. Sollten demnach beide ebenbürtig miteinander kommunizieren, so war das bislang nur in der Form zu realisieren, dass der Mensch sich der Technik annähert – mit anderen Worten, den Zeichenumfang und Wortschatz der Maschinen zu lernen hatte. Dagegen verwendet er aber unter „seinesgleichen“, also mit anderen Menschen, einen ganz anderen Zeichensatz, über den vielleicht noch nicht einmal allgemeine Bewusstheit existiert: Mimik, Gestik, Sprache, Stimmlage, Präsenz. Die Innovation in diesem Sinne wäre demnach ein umgekehrter Brückenschlag zwischen Mensch und Maschine durch eine Modellierung der menschlichen Zeichensätze der Kommunikation durch Informationstechnologie. Avatare1 wären demnach die visuell anthropomorph modellierte Annäherung des Rechners an den Menschen. Sie stellen eine Verkörperung von zu Grunde liegenden Software-Agenten dar – diese Aufteilung kann man metaphorisch auch als die in „body“ und „mind“ bezeichnen. Auf Seite der Software-Agenten („mind“) werden einerseits Menschmodelle gebildet, wie zum Beispiel emotionale Zustände und deren Bedingungen, oder Modelle der Kognition und des Wissens. Diese werden wahrnehmbar nach außen dargestellt durch visuelle Menschmodelle der Avatare („body“), als Kommunikationsschnittstelle zum Menschen. Im Themengebiet dieser 1. Avatar: (Synonyme: Verkörperung, Inkarnation) Ursprünglich ist ein Avatar die Manifestation einer hinduistischen Gottheit in menschlicher, übermenschlicher oder tierischer Form. Z.B. wird Buddha als ein Avatar des Gottes Vishnu angesehen. Seit der Verwendung des Begriffes im Zusammenhang mit Computern in Neil Stephensons Science-Fiction-Roman „Snowcrash“, wird „Avatar“ für das hier angesprochene Anwendungsgebiet in zweierlei Hinsicht gebraucht: Entweder für einen bildlich dargestellten Körper als Repräsentation eines Nutzers in einer Multi-User-Umgebung, oder für einen bildlich dargestellten Körper einer intelligenten Software-Komponente zur menschlichen Kommunikation mit Nutzern. Letzteres ist für diesen Beitrag der Hauptaspekt.
208
Ulrike Spierling
auch genannten „Embodied Conversational Agents“ befassen sich verschiedene Forschergruppen gegenwärtig mit der Definition von abstrakten und übergreifenden Parametersätzen sowie von Protokollen [1]. Am Anfang der Entwicklung hin zu Avataren auf dem Bildschirm stand demnach eine ernst gemeinte Vision: Undurchsichtige Technik sollte menschlicher gemacht werden, und vor allem deren oft anhaftender Emotionslosigkeit sollte etwas entgegengesetzt werden. In der Rechner-Geschichte war es der spürbare Paradigmenwechsel Mitte der 1990er Jahre vom „Computer als Werkzeug“ zum „Computer als Assistent“, vom Akt der Maschinen-Bedienung zur Delegation bzw. Dienstleistung, der selbstverständlich mit sehr kontroversen, auch philosophischen Diskussionen von statten ging [2]. Antrieb für die Entwicklungen war und ist auch die Vision von „Informationstechnologie für uns alle“, also vom Wegfallen der technischen Barriere, die für ein „Digital Divide“ mit verantwortlich ist. Darüber hinaus sollte Technik höflich sein, ein freundliches Gesicht haben, und Spaß machen. Der Erforschung der sinnlichen Qualitäten von Benutzungsschnittstellen („Flow“, „Funology“) wird zunehmend Bedeutung zugewiesen [3]. Dennoch wurde in den letzten fünf bis zehn Jahren seit Beginn ihrer Entwicklung der Einsatz von Avataren für User Interfaces nicht so akzeptiert wie erhofft. Selbstkritisch muss festgestellt werden, dass Avatare, die selbst nur technische Artefakte sind, erneut Fragen nach ihrer Technik-Akzeptanz aufwerfen. Am häufigsten gehen die Beschreibungen von Nutzermeinungen an der Stelle auseinander, an der offensichtlich ein unklares allgemeines mentales Modell zu Grunde liegt. Während die Einen nach wie vor die Werkzeugmetapher für den Rechnergebrauch als allein gültiges Paradigma voraussetzen, begrüßen andere die neuen Kommunikationsmöglichkeiten, die neben Werkzeug-Aufgaben auch Assistenz sowie Beratung und Unterhaltung mit einschließen. Darüber hinaus nähern sich Menschen dem Phänomen „Avatare“ aus unterschiedlichen Richtungen an, die jeweils mit verschiedenen Vorerfahrungen und Erwartungshaltungen verknüpft sind. An dieser Stelle soll die These aufgestellt werden, dass bereits bei der Gestaltung eines Avatars samt seines Kontextes bei Nutzern Bewusstheit über die verwendete Metapher hergestellt werden sollte, um Missverständnisse zu vermeiden. Die These wird damit erweitert, dass es plausibel erscheint, diese Forderung nach geeigneten Vorlagen aus der „realen Welt“, die intuitiv zu begreifen sind, auch generell auf die Gestaltung von Ambient Intelligence Szenarien auszudehnen, so weit dies möglich ist. Auch räumliche Umgebungen könnten in gewisser Weise anthropomorphe Attribute bekommen, in dem das Gefühl der sozialen Präsenz einer Öffentlichkeit anderer Mitmenschen hergestellt würde, so bald die Umgebung Informationen über Nutzer aufnimmt.
15 Der Avatar: „Ein Wesen, eine Spielfigur, ein Medium, oder ein UI-Element?“
209
Modelle und Metaphern Im Folgenden sollen vier verschiedene konzeptuelle Modelle für Avatare näher betrachtet werden (Bild 1): Der Avatar als User-Interface-Element, als Wesen, als Spielfigur oder als Medium.
Betrachtungsweisen und Annäherungen UI-Element Dialogform
Virtuelles Wesen KI-Charakter
Avatare und Virtual Humans
Medium Schauspieler
Spielfigur Puppe
Bild 1: Konzeptuelle Modelle der unterschiedlichen Wahrnehmung von Avataren bzw. künstlichen Figuren
UI-Element Die unter Microsoft Anwendern allbekannte Büroklammer, die in Office Produkten Hilfe anbietet, findet wenig Sympathie unter Nutzern der Text- und PräsentationsWerkzeuge. Häufig berichtete Meinungen kann man übergreifend als „genervt“ bezeichnen. Dabei scheinen zwei Aspekte eine Rolle zu spielen: Der Hilfe-Agent taucht im falschen Augenblick an der falschen Stelle auf und zwingt zur Interaktion (wie z.B. zum Drücken des OK-Schalters): Ein Hinweis darauf, dass der Kontext, in dem Hilfe oder Assistenz dargeboten werden sollte, eine wesentliche Rolle bei der Modellierung spielt. Die Büroklammer macht Kommunikationsangebote, die sie nicht einlösen kann, u.a. da sie in der „ich“-Form redet und zum Chatten einlädt – tatsächlich kann sie aber die einfachsten Fragen nicht beantworten, wie z.B. die Frage „was kannst Du für mich tun?“. Der Microsoft Hilfeagent ist dialogtechnisch ausgestattet wie eine herkömmliche Dialogbox mit erzwungenem Eingabefokus, anstatt wirklich konversationsfähig zu
210
Ulrike Spierling
sein. Damit ist er eine unglückliche und unklare Verbindung zweier Metaphern: Dem Modell eines UI-Elementes (Verhalten) mit dem eines Emotionen hervorrufenden Wesens (Aussehen).
Wesen Auf der anderen Seite sind so genannte Chatbots oder Chatterbots aktuell auf dem Weg, die Kundenkommunikation auf Webseiten von Service-Anbietern zu bereichern. Zunehmend werden von Firmen die Möglichkeiten der Abbildung von Erstkontakt-, Informations- und Produkthilfeangeboten auf virtuelle Gesprächspartner genutzt. Dabei erhofft man sich eine besser informierte sowie besser gestimmte Kundschaft bei weniger Einsatz von Servicepersonal durch beispielsweise ein CallCenter. Deutsche und internationale Beispiele umfassen Angebote von z.B. einem Stromanbieter [4], Bausparkassen und Versicherungen [5, 6], sowie allgemeinen Informationsdienstleistern. Dabei haben die visuellen Repräsentationen der Avatare eine Spannbreite von cartoon-artig bis fotografisch, und eine Bewegungsvielfalt von der Darbietung einzelner Standbilder über kurze festgelegte Animationsbausteine bis hin zu regelbasierten Bewegungsmustern, die ad hoc für den jeweiligen Sprechtext errechnet werden. Bild 2 zeigt ein Exponat, das in der Ausstellung Computer.Gehirn am HNF Paderborn im Jahre 2001 gezeigt wurde. Es besteht in der Verknüpfung eines grafischen
Bild 2: Live Chat mit dem Avatar „Alex“ in der Ausstellung Computer. Gehirn des HNF (TU Darmstadt, ZGDV e.V. 2001)
15 Der Avatar: „Ein Wesen, eine Spielfigur, ein Medium, oder ein UI-Element?“
211
Avatarkopf-Prototypen aus dem deutschen Leitprojekt EMBASSI [7] mit Chatterbot-Dialogfähigkeit. Der während der Ausstellung entstandene und fotografierte Kommunikationsausschnitt macht deutlich, womit viele Chatterbots kämpfen müssen: Durch Beleidigungen zum Ausdruck gebrachte Skepsis der Nutzer muss durch einen entsprechenden Wortschatz und programmierte schlagfertige Verhaltensweisen abgefangen werden, damit eine höhere Akzeptanz erreicht wird. Deutlich wird hier, dass Nutzer den Bot als ein Wesen wahrnehmen, dessen Ausdrucksmöglichkeiten und Vertrauenswürdigkeit sie ausloten wollen. Zwei weitere Beispiele (siehe Bild 3) zeigen die Anwendung von mehr als nur einem Avatar in für das Lernen gestalteten Szenarien. Hierbei wurde für die Rollenverteilung keine „Face-to-Face“ Einzelkommunikation eines virtuellen „Lehrers“ mit lernenden Nutzern gewählt, da die übliche Chatbot-Kommunikation mit einem Avatar unter ihrer starren Abwechslung häufig leidet, insbesondere wenn auf Nutzerseite die Worte ausgehen. Daher wurden interaktive Geschichten inszeniert: Mehrere Avatare verkörpern z.B. gegenüber gestellte Charakter-Rollen in einem Disput über Kunstwerke, und können, durch eine Story-Engine gesteuert, miteinander ein Gespräch inszenieren, bei welchem Nutzer zur verbalen Interaktion eingeladen werden. Diese erfolgt aktuell noch über Tastatur, wie bei Chatterbots.
Bild 3: Inszenierung von Gesprächen zwischen Avataren mit Rollenverteilung. Links: EUProjekt art-E-fact [8], Museumsanwendung zum Thema „Florentinische Andachtsbilder“. Rechts: Didaktik-Seminarprojekt zum Thema „Rechnen in der Grundschule“
In dem rechts dargestellten Beispiel wurde in einer Zusammenarbeit mit PädagogikStudentinnen das Thema „Rechnen in der Grundschule“ inszeniert. Bemerkenswert war im Rahmen dieses interdisziplinären Projektes, dass zu Beginn ein großes
212
Ulrike Spierling
Unbehagen der Didaktiker gegenüber virtuellen Figuren vorhanden war. Die Sorge, sich durch virtuelle Wesen („Virtual Human“-Metapher) ersetzen zu lassen, stand dabei im Vordergrund. Dieser Umstand änderte sich, als ein anderes mentales Modell etabliert werden konnte, nämlich das einer „virtuellen Puppenstube“. Eine Puppenstube ist ein altes, bewährtes und bei der Zielgruppe akzeptiertes Spielzeug für kleine inszenierte Szenarien. Dieses in eine Gesamtkonzeption einzubinden, in der sowohl Präsenzlehre als auch einzelne Puppen-Simulationen stattfinden, erfuhr keine prinzipiellen Akzeptanzprobleme mehr [9].
Spielfigur / Puppe Damit ist eine weitere Sichtweise auf Avatare herausgedeutet – die Metapher einer Spielfigur, bzw. einer konfigurierbaren Puppe. Diese kann nun in Erweiterung von klassischen Spielzeug-Puppen noch differenzierter virtuell personalisiert und gekleidet werden, und darüber hinaus in ihrem semi-autonomen Verhalten beeinflusst werden. Eine moderne Puppenstube ist das von der Firma Electronic Arts herausgegebene Computerspiel „The Sims“ [10]. Seine Verkaufszahlen schlagen aktuell die Ergebnisse der Action Games, was in der großen adressierten Zielgruppe, die die weibliche Kundschaft einschließt, mit zu begründen ist. Entscheidend ist, dass die Spielenden damit zu aktiven Autoren gemacht werden. Die Puppenstube befähigt Menschen, eigene Kreationen hervorzubringen, sich selbst Ausdruck zu verleihen, und vor allem, Kontrolle zu haben. Puppen müssen auch nicht alles können, was ein Mensch kann – ein vergleichsweise reduzierter Parametersatz stellt daher kein Akzeptanzproblem dar. Im Gegenteil – wie in einigen Thrillern erzählerisch thematisiert wurde – wirkt auch eine herkömmliche Puppe, der man einen gewissen „Intelligenz“-Grad attributieren müsste, zunehmend unheimlich und wird abgelehnt. Junge Menschen wachsen heute mit diesen Spielzeugen auf und werden sie zu meistern wissen.
Medium / Schauspieler Puppen können auch als Medium verwendet werden, in dem sie Inhalte von Autoren darbieten – traditionell sind dies Marionetten. Sie haben die gleiche Funktion wie Schauspieler auf der Bühne oder im Film, die man in der Regel auch nicht für das persönlich verantwortlich macht, was sie auf der Bühne sagen. Man weiß, dass ein Autor durch sie als Medium etwas inszeniert. Dennoch gibt es den Effekt des „Suspension of Disbelief“, ein von S.T. Coleridge geprägter Begriff über die freiwillige Unterdrückung des Unglaubens im Theater, der es ermöglicht, das Auditorium emotional sehr einzubinden, obwohl es sich über die „nur gespielte“ Handlung im Klaren sein müsste. Bemerkenswert ist, dass in Trickfilmen und Animationen dieser Effekt weniger von der photorealistischen Darstellung inszenierter Figuren abhängt, als von einer glaubwürdigen und packenden Geschichte.
15 Der Avatar: „Ein Wesen, eine Spielfigur, ein Medium, oder ein UI-Element?“
213
Der Brückenschlag zwischen Mensch und Technik ist aktuell im Bereich des Stands der Technik computer-animierter Schauspieler fast vollständig vollzogen. Der Spielfilm „Final Fantasy – The Spirit Within“ von 2001 gilt auf diesem Gebiet als Meilenstein [11]. Auch im Bereich der interaktiven, in Echtzeit darzustellenden Figuren wird ein hoher Realitätsgrad bereits erreicht. Die Filmkritiken lassen jedoch darauf schließen, dass der dargestellte Realitätsgrad nicht über eine schwache Story hinwegtäuschen kann, und somit nicht vorwiegend entscheidend für den Erfolg eines Mediums ist.
Zusammenfassung Es wurde gezeigt, dass die Verwendung von virtuellen computer-generierten Figuren (Avataren) unterschiedliche Motivationen haben kann, die jeweils in bestimmten Metaphern münden, die auch für die Wahrnehmung von und Erwartungshaltung an diese Figuren zur Wirkung kommen.
Kurze Betrachtung zu Akzeptanzfaktoren/ Akzeptanz-Studien über Embodied Conversational Agents Über die Akzeptanz von Avataren gibt es noch keinen ausreichenden Umfang von empirischen Studien. Erkenntnisse werden häufig aus formativen Evaluationen während eines Entwurfsprozesses gewonnen, wie auch in den zuvor gezeigten Beispielen. Weiterhin werden innerhalb der Forschungsarbeiten an „Embodied Conversational Agents“ einzelne Detailaspekte für deren technische Spezifikation evaluiert [12], aber nicht bezüglich der allgemeinen Anerkennung durch Nutzer. Im Rahmen des EMBASSI-Projektes wurde an der Universität Köln eine empirische Studie zur Akzeptanz und Benutzbarkeit des im Projekt entwickelten virtuellen Helfers durchgeführt [13]. Die Studie verweist recht häufig auf die Notwendigkeit, in verschiedenen Einzelpunkten weitere Studien durchführen zu müssen. Dies ist zu begründen durch die enorme Anzahl an Abhängigkeiten zwischen den Parametern der menschenähnlichen Kommunikation, die in den allgemeinen Tests noch nicht ausreichend isoliert betrachtet werden konnten (sprachliche Ausdrucksweisen, Stimmlagen, Geschwindigkeiten, individuelles Aussehen, Mimik- und TurntakingVerhalten, u.w.). Untersucht wurden Alternativen eines entwickelten Prototyps eines TV-User Interfaces für das Programmieren eines Videorecorders (Bild 4). Im Vergleich standen die Benutzbarkeit und Akzeptanz des Prototyp-Menüs mit Fernbedienung und Bedienungsanleitung, das Gleiche mit einem virtuellen Helfer (Avatar) statt einer Bedienungsanleitung, und in einem Wizard-of-Oz Experiment mit einem Avatar, der auch delegierte Aufgaben abnimmt.
214
Ulrike Spierling
Bild 4: EMBASSI Interface zur Video- & TV- Einstellung mit Avatar
Zusammenfassend können folgende übergeordnete Aussagen zu den Ergebnissen des Tests gemacht werden: • Virtuelle Figuren wirkten im Allgemeinen überwiegend positiv auf die subjektive Gesamtbewertung des Systems. • Objektiv fand dabei im Durchschnitt weder eine Verbesserung noch eine Verschlechterung der Usability-Aspekte „Effizienz“ und „Effektivität“ bei der Durchführung der gestellten Aufgabe statt. • Die soziale Wirkung des modellierten „Face-to-Face“-Kontaktes auf die Probanden wurde deutlich durch ihr Kommunikationsverhalten, das sich anders gestaltete als mit einem „Ding“. Dabei wurden auch erstaunliche Effekte berichtet, wie z.B. einen ersten Gewöhnungseffekt, bestehend in einer höheren Eitelkeit der Probanden beim Erstkontakt (bzgl. ihres eigenen Aussehens und ihrer BedienFertigkeiten) als bei weiteren Kontakten. Hier ist noch durch längere Tests zu untersuchen, in wie weit soziale Beziehungen mit allmählich ansteigenden Vertraulichkeiten entstehen können, welche die Bewertung beeinflussen. • Das System hat mit einem Avatar einen höheren Unterhaltungswert als ohne einen Avatar, und gewinnt eine höhere Aufmerksamkeit der Nutzer. • Die Sympathiebeschreibungen sind inkonsistent und individuell so verschieden, dass keine allgemeinen Aussagen gemacht werden konnten. • Ebenso wurde die Wichtigkeit der Qualität der Animation unterschiedlich bewertet.
15 Der Avatar: „Ein Wesen, eine Spielfigur, ein Medium, oder ein UI-Element?“
215
Einbettung in die Umgebung Ein weiterer wichtiger Aspekt der Modellierung eines Brückenschlags in der Kommunikation zwischen Mensch und Technik ist die Frage der geeigneten Einbindung von Avataren in die Umgebung des Menschen. Statt „kleiner Männchen auf dem Bildschirm“ könnten Avatare z.B. eher in einem Gesamtkonzept von Ambient Intelligence durch menschliche Größenverhältnisse und durch nachvollziehbare metaphorische Situationen zu Nutzern in Beziehung gesetzt werden. Bild 5, 6 und 7 zeigen Projekte, die dies prototypisch verdeutlichen. Im Projekt „Info zum Anfassen“ [14] wird ein „virtuelles Gegenüber“ an einem Messestand modelliert, mit dem Menschen durch Zeigegesten und Sprache interagieren können und auch physische Objekte wie Papierdokumente als Thema der Konversation benutzen können. Durch Videoerkennung von Nutzer-Gesten und Papierdokumenten wird die Gegenseitigkeit der Kommunikation hergestellt. Diese Form der Gegenüberstellung eines Avatars wurde und wird auch in einer Reihe von Forschungsprojekten zum möglichst vollständigen Modellieren einer MenschMensch Kommunikation gewählt und weiter entwickelt, wie z.B. Gandalf [15] und Rea [16]. Die zu Grunde liegende Metapher für den Avatar ist bei „Info zum Anfassen“ ein virtueller „Dienstleister“, der dann glaubwürdiger ist, wenn er kein „Interface zur Allwissenheit“ darstellt, sondern wenn sein begrenztes MessestandWissen durch seine Formgebung, sein Verhalten und die Situation begründet werden kann.
Bild 5: Projekt „Info zum Anfassen“ integriert die virtuelle und die physische Welt der Information
Im Projekt „Telebuddy“ zur Expo 2000 [17] wurde einer mobilen Webcam die Form einer huckepack-reisenden Puppe (ein physischer Avatar eines Web-Users ohne Bot-Funktionalität) gegeben, die auch über Sprachausgabe und animatronische Aktoren verfügt (lächeln, Augen rollen, Hand heben). Internetnutzer konnten „als Telebuddy“ über einen Webbrowser durch das Auge der Puppe eine reale Ausstellung miterleben und sich durch Sprache und Aktoren der Außenwelt mitteilen.
216
Ulrike Spierling
An diesem Artefakt lässt sich die Frage diskutieren, wie in zukünftigen Szenarien einer durch Videokameras ausgestatteten Umwelt die Wahrnehmung von sozialer Präsenz und Öffentlichkeit unterstützt werden kann. Wenn Menschen Gesichter anderer Menschen sehen, wissen sie, dass sie sich in einer öffentlichen Situation befinden und verhalten sich entsprechend. Die provokante These wäre, dass die Abbildung der öffentlichen Situation (live Videokameras) auf Gesichter (Avatare) an dieses natürliche Verhalten anknüpfen könnte – eventuelle unbehagliche Gefühle inbegriffen.
Bild 6: Projekt Telebuddy: Internetnutzer reisen per Videobild und live Chat huckepack durch reale Umgebungen (z.B. Ausstellungen)
Im Projekt „Geist“ [18] werden Geschichten erzählende Avatare als Geister modelliert, die auch nur über spezielles „magisches Equipment“, das Nutzer mit sich herumführen, überhaupt aufgespürt und gesehen werden können. Technische Bedingung dieser mobilen Anwendung sind hier Ortungs- und Blickfelderkennungsverfahren, die den räumlichen Kontext für einen Geister-Kontakt feststellen (Mobile Augmented Reality mit Bildüberlagerung Computergrafik/Realbild). Die Metapher der Gesamtsituation ist in sich schlüssig, in dem sie sich an fiktionalen Phantasieszenarien orientiert. In diesem Beispiel findet die freiwillige Unterdrückung des Unglaubens bei Nutzern statt, um sich ähnlich wie in einem Computerspiel auf eine unterhaltsame Geister-Konversation einzulassen. Die Geister-Metapher ist auch eine konzeptuelle Begründung für den technisch bedingten Umstand, dass die Avatare nicht mit den Füßen auf dem Boden stehen, keine Schatten werfen und durch Wände gehen sowie schweben können.
15 Der Avatar: „Ein Wesen, eine Spielfigur, ein Medium, oder ein UI-Element?“
217
Bild 7: Im Geist-Projekt stehen sich Nutzer (ausgerüstet mit Durchsichtgerät) und virtuelle Geister durch Mobile Augmented Reality in der freien Natur gegenüber
Diskussionspunkte Abschließend sollen einige Thesen zur Akzeptanz und Weiterentwicklung von Avataren zur Diskussion gestellt werden: These: Zunehmend realistische Modellierungen (body & mind) führen nicht (automatisch) zu höherer Akzeptanz von Avataren, sondern bergen neue Risiken der Fehleinschätzung sowie des „Unheimlichen“. Im Rahmen des Designs von virtuellen Figuren wird auch unter den Kreativen in der Unterhaltungsindustrie zuweilen der Begriff des „Uncanny Valley“ verwendet. Dieser Begriff wurde von Masahiro Mori bereits Ende der 1970er Jahre geprägt, damals auf die emotionale Wirkung von Robotern auf Menschen bezogen. In Bild 8 ist illustriert, welches Tal damit gemeint ist: In der Kurve der zunehmend positiven empathischen Reaktion von Menschen auf die anthropomorphe Darstellung von etwas „Nicht-Menschlichem“ gibt es darin einen abrupten Abfall kurz vor dem Punkt der vollständig realistischen Angleichung. Der Faktor der Bewegung ist dabei laut Mori noch mehr für das Abfallen der Akzeptanz verantwortlich als das visuelle Aussehen. In diesem Tal des Unheimlichen liegen die Design-Kriterien für „glaubwürdige Monster“, die, um Menschen wirklich zum Gruseln zu bringen, tatsächlich viele Mensch-Aspekte aufweisen müssen. Auch wenn diese Erkenntnis oder Aussage aus wissenschaftlicher Sicht umstritten ist, findet sie in der Unterhaltungsbranche Anwendung.
218
Ulrike Spierling
Bild 8: Der Effekt des „Uncanny Valley“ nach Masahiro Mori [19]
These: Avatare geben der Kommunikations-Technologie, die als wahrnehmbares Artefakt ohnehin als ein „Social Actor“ fungiert, ausgestaltete Gesichter. Dabei führen klare Rollenzuweisungen für Avatare in der Beziehung zum Nutzer zu erhöhter Akzeptanz. „Storytelling“ ist eine Möglichkeit der bewussten Inszenierung der Situation in einer aktiven, narrativen Umgebung. Mit der Ausgestaltung einer erkennbaren Rolle für den Avatar erleichtert man die Funktionserkennung, ähnlich wie bei klar definierten Dienstleistungsaufgaben. Modelliert man dabei den Avatar mit dem Nutzer unterlegenen Fähigkeiten, ist er leichter einschätzbar und weniger beängstigend. Er ist kein „Interface zur Allwissenheit“, sondern erfüllt im Idealfall die Erwartungen an seine Möglichkeiten sowie an seine Begrenzungen. Die Metapher aus dem Projekt „Geist“ zeigt, dass man auch fiktive Szenarien aus Geschichten als in sich schlüssige Situation modellieren kann. Entscheidend wäre, dass man (z.B. gerade in einer intelligent auf Menschen reagierenden Umgebung) eine humorvolle Bewusstheit über die Tatsache der Inszenierung herstellt. These: Die Metapher der „virtuellen Puppenstube“ (Spielfigur) ist weniger beängstigend als die des „virtuellen Menschen“ (Wesen). Aktiv gestaltende Nutzer verlieren Vorbehalte, finden Spaß am kreativen Umgang mit simulierten Wesen, und können deren Kapazität einschätzen. Mangelnde Kontrolle sowie mangelnde Einschätzung des „Gegenübers“ führen zu Misstrauen und Ablehnung. Neue virtuelle Spielfiguren stellen an die Spielenden neue Anforderungen und bieten neue Möglichkeiten, nämlich die der aktiven Gestaltung von Verhaltens-Parametern, wie z.B. das „Züchten“ von virtuellen Wesen, bzw. das Modellieren von
15 Der Avatar: „Ein Wesen, eine Spielfigur, ein Medium, oder ein UI-Element?“
219
Figuren-Eigenschaften, die in einem emergierenden (nicht vollständig steuerbaren) Handlungsverlauf Konsequenzen haben. Diese zu erlernende Befähigung im kreativen Umgang mit Avataren ist notwendige Voraussetzung für einen verantwortlichen und angstfreien Umgang mit der Technologie. Menschen mit einer aktiven spielerischen Einstellung hierzu werden auch den in den Studien heraus gedeuteten Unterhaltungswert der Avatare zu schätzen wissen. Im Gegensatz dazu sind bezüglich der nachhaltigen Erfolgschancen von virtuellen Helfern noch Zweifel angebracht, sofern diese spürbar intelligenter als ihre Nutzer wären, und vom Aspekt des Unterhaltungswertes kein Vorteil erwartet würde.
Referenzen [1] Cassell, J., Sullivan, J., Prevost, S., Churchill, E.: Embodied Conversational Agents, MIT Press, Cambridge MA, USA (2000) [2] Maes, P., Shneiderman, B., Miller, J. (Mod.): Intelligent Software Agents vs. UserControlled Direct Manipulation: A Debate. Panel Outline, Extended Abstracts of ACM, CHI ’97 (1997) [3] Blythe, M., Overbeeke, C., Monk, A.F., Wright, P.C. (Eds.): Funology: From Usability to Enjoyment. Kluwer Academic Publishers, Dordrecht, Boston, London (2003) [4] Homepage Chatbot Beispiel: http://www.yellostrom.de (Zugriff 2004) [5] Homepage Chatbot Beispiel: http://www.schwaebisch-hall.de/fuchs (Zugriff 2004) [6] Homepage Chatbot Beispiel: http://www.hannoversche-leben.de/ (Zugriff 2004) [7] Homepage des BMBF Leitprojektes „EMBASSI“: http://www.embassi.de (Zugriff 2004) [8] Homepage des EU-IST-Projektes „art-E-fact“: http://www.art-e-fact.org (Zugriff 2004) [9] Iurgel, I., Hoffmann, A., Spierling, U.: Wissensvermittlung durch interaktives Erzählen – die Plattform art-E-fact. In: Keil-Slawik, R., Selke, H., Szwillus, G. (Hrsg.): Mensch & Computer 2004: Allgegenwärtige Interaktion. Oldenbourg Verlag, München (2004) [10] Computerspiel „The Sims“: http://thesims.ea.com/ (Zugriff 2004) [11] Kinofilm „Final Fantasy – The Spirit Within“: http://www.finalfantasy-spiritwithin.com/ (Zugriff 2004) [12] Ruttkay, Z. et al: Embodied conversational agents – let’s specify and evaluate them! In conjunction with: The First International Joint Conference on Autonomous Agents & Multi-Agent Systems. Workshop Material: http://www.vhml.org/workshops/AAMAS/ (Zugriff 2004) [13] Krämer, N.C.; Bente, G. (im Druck): Assistenz durch Virtuelle Helfer. In: Wandke, H., Wetzenstein, E. (Hrsg.): Der Umgang mit Technik im Alltag: Assistenz für Benutzer. Springer-VDI, Berlin (2004) [14] Projekt „Info zum Anfassen“: http://www.zgdv.de/zgdv/departments/z5/Z5Projects/ Info_zum_Anfassen_1 (Zugriff 2004) [15] Homepage des MIT-Projekts „Gandalf“: http://xenia.media.mit.edu/~kris/gandalf.html (Zugriff 2004)
220
Ulrike Spierling
[16] Cassell, J. et al: Embodiment in Conversational Interfaces: Rea, ACM CHI 99 Conference Proceedings, Pittsburgh, PA (1999). [17] Homepage des BMBF-Projekts „Telebuddy“: http://www.telebuddy.de/ (2000) / Spierling, U., Dechau, J.: Der Telebuddy – Tele-Konversation mit einem physischen Avatar. In: Proceedings Digital Storytelling, Computer Graphik Edition Band 2, Fraunhofer IRB Verlag, München (2000) [18] Homepage des BMBF-Projekts „Geist“: http://www.tourgeist.de/ (Zugriff 2004) / Kretschmer, U. et al: „Meeting the Spirit of History“, VAST 2001: Proceedings of the International Symposium on Virtual Reality, Archaeology and Cultural Heritage, p.161-172, Glyfada, Greece (2001) [19] Bryant, David: The Uncanny Valley. Why are monster-movie zombies so horrifying and talking animals so fascinating? Online: http://www.arclight.net/~pdb/glimpses/valley.html (Zugriff: 2004)
16 Diskussion Moderation: Dr. Wolf v. Reden, Fraunhofer Institut für Nachrichtentechnik, Heinrich-Hertz-Institut, HHI, Berlin Dr. v. Reden: Die letzte Sitzung mit dem Titel „Gelingt der Brückenschlag zwischen Technik und Mensch?“ soll versuchen, Sie, das Publikum, stärker in die Diskussion einzubeziehen. Bei dem weiten Bogen, den dieser Kongress zu spannen versuchte, ist nahezu in allen Beiträgen der Mensch und sei es als User Centric Consumer, ins Gespräch gekommen. Das lief im Zickzackkurs auf diese letzte Sitzung zu. Alle Beiträge des heutigen Tages hatten den Menschen mehr oder auch manchmal weniger im Mittelpunkt. Bei Herrn Prof. Encarnacao war er letztlich ein Smart Object, was auch eine Definition für einen Menschen zumindest in Gegenwart solch smarter Umgebung sein kann. Gerade der letzte Beitrag von Herrn Pietralla bemühte sich, anthropomorphes Design und Regeln für Geräte unter Marketingaspekten darzulegen. Dies ist sicher ein wesentlicher Punkt, den ich nicht klein reden möchte. Wir haben auch die große gesellschaftliche Herausforderung immer wieder berührt. Herr Prof. Christaller berührte es gerade bei der Frage von gesellschaftlichen Adaption von Technik im Sinne von beispielsweise Robotern in der Schule. Es ist vielleicht, trotz aller Aktualität der Fragen schulischer Bildung und Ausbildung bzw. der Lehrermisere, nicht das ganz tragende Beispiel. Unbestritten scheint mir aber, dass wir ein gesellschaftliches Problem haben und das ist eng verbunden mit der Azeptanz aller technischen Produkte bei den Menschen. Wie gehen Menschen auf intelligente Maschinen zu? Wo kommen die Menschen her, die diese Geräte benutzen wollen oder können, wollen oder eben nicht können? Gibt es da wesentliche interkulturelle Differenzen, die wir bei einer umfassend umgebenden Technik berücksichtigen müssten. Wir wollen in dieser Sitzung versuchen, diesen Komplex etwas detaillierter zu diskutieren. Mit einer soziokulturellen Fragestellung möchten wir beginnen. Es ist heute schon einmal unter eher wirtschaftlichen Aspekten erwähnt worden, wie eigentlich Europa im Vergleich zu den USA in technischer Durchdringung und der Haltung der Bevölkerung dazu steht. Herr Dr. Punie vom Institute for Prospective Technological Studies in Sevilla möchte sich dem Thema widmen, inwieweit „Ambient Intelligence“, worunter künftig mehr als nur „Pervasive Computing“ bzw. „Ubiquitous Computing“ verstanden werden soll, als ein IST-Forschungsprogramm in Europa bekannt wird und wie diese gesellschaftliche Akzeptanz auch den Menschen mehr einbeziehen soll und wird. Bitte, Herr Dr. Punie! (Vortrag Dr. Yves Punie ist unter Ziffer 12 abgedruckt)
222
Moderation: Wolf v. Reden
Dr. v. Reden: Jetzt haben wir von dem weiten Weg der Gesellschaft zu einem umfassenden Forschungsauftrag gehört und sind letztlich bei dem Menschen gelandet. Darum möchte ich hier daran erinnern, dass Ambient Intelligence, sofern es sich denn nicht nur um ein technologisches Programm handelt, sich eigentlich unter einem Motto versammeln wollte: Die Umwelt in die Lage zu versetzen, den in ihr handelnden Menschen zu unterstützen. In den bisherigen Vorträgen wurde zwar immer hervorgehoben, dass es Maschinen, Geräte, technische Einrichtungen geben muss, die dem Menschen angepasst sind; denn selbst ein verschwindender Computer muss irgendwie bedient werden. Da kommt dann die bekannte Metapher der Fernbedienung ins Spiel, die heute schon einmal zitiert wurde. Ich möchte mir die Freiheit nehmen, an einen alten Film mit Peter Sellers zu erinnern, „Welcome Mr. Chance“, in dem er in der Rolle eines Butlers die Welt nur vermittels eines Fernsehers erfährt. Als seine Herrschaft stirbt, muss er das Haus verlassen. Er nimmt die Fernbedienung des TV-Geräts mit und wundert sich, warum er damit sich die Welt nicht weiterhin dienstbar machen kann, damit beispielsweise eine Taxitür nicht öffnen kann. Zuweilen, bei Fernsehgeräten in irgendwelchen Hotels, hat er mit dieser Fernbedienung sogar noch Erfolg … Das Problem jedweder Fernbedienung ist bekannt, und wenn wir uns heute die Vielzahl der jetzt und künftig notwendigen Endgeräte vorstellen, fragt man sich schon, mit welcher Art Revolvertechnik bzw. Wechselhalterung diese Fernbedienungen zur Hand gehen sollen. Wir haben es vorhin gehört, wie die Zahl der Endgeräte wächst, bei der in Rede stehenden digitalen Assistenz, die wir zuhause oder sonstwo haben (werden). Wie können wir Menschen in dem Ganzen funktionieren? Können all diese umweltbildenden Geräte, diese Smart Dusts den Menschen in seinem Leben unterstützen? Das ist eine Frage, die wirklich weg von dem Kunden und Nutzer und auf den Menschen hinführt und wie er sich mit anderen Smart Objects auseinander zu setzen vermag. Heute Morgen hatten wir dazu schon in einem Ausschnitt des Films „Minority Report“ Tom Cruise gesehen, der mit einem Computer mit Hilfe der Gestik kommuniziert. Dann hatten wir Mathilde in einer filmischen Animation gesehen, die über Fingerzeige und Armbewegungen ihre Umgebung zum Tanzen bringt. Dies sind nur zwei Beispiele für die wunderschöne Welt des Ambient Intelligence. Aber wie ist es denn nun konkret, wenn wir heute mit Geräte hantieren? Wir hatten vorhin von Herrn Pietralla gehört, wie sich mit Usability-Ansätzen sowohl sozio-demographischer Art als auch beispielsweise bezogen auf Life Style Fragen an speziellen Entwicklungen von Mobiltelefonen Markterfolge adressieren ließen. Wir wollen uns nun hier etwas stärker und konzentrierter darauf zu bewegen, wie denn diese Nutzer, manchmal sind es auch leidgeprüfte Konsumenten und nur die können letztlich technische Entwicklungen zum Leben bringen, mit diesen Geräten umgehen. Ich möchte zuerst Herrn Dr. Mühlbach bitten, uns aus seiner Sicht zum mobilen Internet etwas zu sagen. Herr Dr. Mühlbach ist am Heinrich-Hertz-Institut in Berlin tätig, wo er sich als Pädagoge und Psychologe gerade um die Frage der
16 Diskussion
223
Mensch-Computer-Kommunikation bemüht, aber auch darum, wie nicht nur Computer sondern auch andere Geräte auf den Menschen wirken und wie dieser zurück wirkt. Bitte sehr Herr Dr. Mühlbach! (Vortrag von Dr. Mühlbach ist unter Ziffer 13 abgedruckt) Dr. v. Reden: Das wirft bei mir immer die Frage auf, ob Usability eigentlich Nutzerfreundlichkeit heißt oder dabei auch einen menschengerechteren Zu- und Umgang intendiert? Ich möchte zum nächsten Thema kommen. Heute Morgen wurde gesagt, der Mensch sei auch als ein Smart Player zu interpretieren. Die Frage ist, ob er überhaupt mitspielt und wenn ja, nach welchen Spielregeln? Wir möchten deshalb Herrn Prof. Frey als Kommunikations- und Medienpsychologen der Universität Duisburg zu seiner Sicht der Dinge insbesondere zu Fragen der nonverbalen Kommunikation bitten. Ich greife diesen Aspekt jetzt auf, um an einen Diskussionsbeitrag von heute Morgen in der ersten Sitzung zu erinnern. Es wurde da die Frage gestellt, ob die dort vorgestellte Kommunikationsanalyse denn nun eher „intentional“ oder eher „perzeptiv“ sei. Das ist eine der Fragen, die Herr Prof. Frey zumindest umkreisen wird. Bitte sehr Herr Prof. Frey! (DerVortrag von Prof. Frey ist unter Ziffer 14 abgedruckt.) Dr. v. Reden: Das gerade Gesagte und auch Demonstrierte knüpft an etwas an, das uns schon in der letzten Sitzung beschäftigt hatte: Die Roboter mit ihrem noch relativ naiven Verhalten wirken ungefährlich, weil sie immer nur an der gleichen Stelle des Rasen herumrotieren, nicht gerade effiziente Replikanten von Rasenmähern. Was ist jedoch, wenn sie menschenähnlicher werden, werden sie uns dann nicht doch eher näher treten. Da möchte ich auch wieder auf das Kino als Traumdeuterin verweisen. Der derzeit aktuelle Film „I Robot“ hat genau das Thema problematisiert wie auch schon viel früher der schöne Kultfilm „Blade Runner“, bei denen dem Betrachter die Sicherheit genommen wird, ob man es bei dem Gegenüber nun mit Robotern oder mit menschenähnlichen Konstrukten zu tun hat und wie gefährlich und feindlich diese „Replikanten“ dem Menschen sind bzw. werden können. Lässt sich ein ausschließlich menschenzugewandtes Dienen denn nun unumstößlich programmieren oder nicht. Aber man wird dann – insbesondere natürlich bei Filmen – das Gefühl nicht los, ob es sich nicht eigentlich um eine Frage des Seins oder Designs handelt. Deswegen haben wir Frau Prof. Spierling, zuständig für Mediendesign an der Fachhochschule Erfurt zu einer Einschätzung gebeten. Sie war zuvor u.a am Zentrum für Graphische Datenverarbeitung.tätig, und das spannt den Bogen zur ersten Sitzung heute Morgen zu Herrn Prof. Encarnacao. Sie hatte sich dort mit Dingen wie Digital Story Telling beschäftigt. Deswegen wollen wir jetzt an sie die Frage stellen: wie
224
Moderation: Wolf v. Reden
dürfen denn Avatare sein, um dem Menschen freundlich zu erscheinen und nicht gefährlich zu wirken? Bitte schön Frau Prof. Spierling! (Der Vortrag von Prof. Spierling ist unter Ziffer 15 abgedruckt.) Dr. v. Reden: Vielen Dank Frau Spierling. Trotz der sehr fortgeschrittenen Zeit möchte ich Ihnen, den Konferenzteilnehmern die Chance geben, sich in das Panel einzureihen und Ihre Thesen und Fragen zur Diskussion zu stellen. Bitte Herr Prof. Wahlster. Prof. Wahlster: Ich habe eine Frage an Herrn Kollegen Frey. Ich fand Ihre Bewegungsanalysen sehr interessant. Wir haben am DFKI ebenfalls umfangreiche empirische Untersuchungen der menschlichen Gestik anhand von Talk-Shows im TV durchgeführt, um die Ergebnisse dann auf die Gestik von animierten Charakteren zu übertragen. Meine Frage bezieht sich auf die technische Umsetzung bei Menschen analysierten Bewegungsabläufe auf Avatare. Motion Caturing alleine scheint mir hier keine gangbare Lösung. Sie haben das offensichtlich bei Ihrem Pütz-Beispiel so gemacht, dass Sie die Bewegung analog auf den Avatar übertragen haben. Die Problematik ist, dass wir quasi eine rekursive Grammatik der Bewegung brauchen, denn wir wollen das Verhalten für beliebige Situationen generieren wollen und können diese in ihrer Gesamtheit ja nicht einfach vorher durch Motion Capturing erfassen. Wenn man Ihre Thesen akzeptiert, wie setzt man diese dann technisch um, so dass skalierbare Lösungen entstehen? Prof. Frey: Ich hatte versäumt zu erwähnen, dass das Instrument selbst natürlich nicht zu dem Zweck entwickelt wurde, Avatare zu bauen, sondern es ist ein reines Forschungsinstrument, um zu ermitteln, auf welche Elemente des komplexen Bewegungsverhaltens der Rezipient überhaupt anspricht. Also: was für das Auge zählt und was nicht zählt. Was ich Ihnen mit den Beispielen aus der Malerei gezeigt habe, ist das, was Sie mit Photomontage machen können. Dies ist sehr begrenzt. Insofern haben wir praktisch zwei Jahrzehnte genau auf die Technologie, die es heute gibt gewartet und zwar speziell auf die Hardware. Und jetzt sind wir in der Lage, das, was vorher nur für statische Bilder ging auch für Bewegung zu machen. Die Lösung der theoretischen Fragen hatten wir schon zehn Jahre zuvor erarbeitet, aber wir mussten auf eine leistungsfähigere Technologie warten. Die theoretische Lösung baut auf den Arbeiten von Konrad Lorenz auf, der zwischen additiven und subtraktiven Attrappenversuchen unterschieden hat. Beim additiven Attrappenversuch beginnt man nach Lorenz mit einem ganz kruden, hölzern wirkenden Objekt, das man ständig verbessert und schaut, ab wann das wahrnehmende Tier, in unserem Fall der wahrnehmende Rezipient darauf anspricht. Der subtraktive Attrappenversuch ist, dass man mit einem möglichst perfekten Modell beginnt und Merkmale eliminiert bis sich die Urteilsbildung des Rezipienten ändert. Heute können wir dies tatsächlich im großen Stil einsetzen, wenn wir wollen. Was wir nämlich jetzt noch zu verändern
16 Diskussion
225
haben, sind lediglich die Zahlen in der Datenmatrix die die Angaben über das komplexe Bewegungsverhalten enthält. Und wir steuern das hochkomplexe Bewegungsverhalten des Avatar, den Sie da gesehen haben, mit einem läppisch geringen Datenfluss von nur 10 K pro Sekunde. Damit bewegen wir alles. Insofern muss man jetzt nur noch in der Datenmatrix Veränderungen vornehmen, um die für die Personwahrnehmung wesentlichen Elemente herauszuarbeiten. Es ist ein ganz anderer Ansatz, der nicht vom sog. Charakter des Senders ausgeht , sondern der gewissermaßen von der Informationsverarbeitung des Empfängers her ansetzt. Dr. v. Reden: Gibt es weitere Fragen aus dem Publikum? Herr Goppold: Dazu fällt mir ein, dass es diese berühmte alte Studie von Heinrich von Kleist über die Bewegungsform der Marionette gibt. Das ist auch ein Thema heutiger Robotik. Kleist hat es in einer Weise ausgedrückt, die so perfekt ist, dass man das als Grundlage für ein Avatarskript verwenden kann. Prof. Frey: Ich könnte etwas dazu sagen. Ich hatte dieses kurze Bild von Gloria Ganer, diesem Avatar, gezeigt. Das ist ein wunderbares Beispiel dafür. Oder ET, die Künstler spielen mit unserem Kopf, indem sie uns ganz hässliche Personen präsentieren und wir gewinnen die lieb, wie in dem Fall von ET, über deren Bewegungsverhalten. Ich denke gerade an die Sache mit der Büroklammer, die immer wieder angesprochen wurde, zeigt die Problematik, wie man einen Dienst auch diskreditieren kann. man sieht es schon in der Kunst, dass diese ganze visuelle Präsentation der Informationsverarbeitung ein außerordentlich sensibler Bereich ist. In der Malerei, die uns über Jahrhunderte hinweg fasziniert, sind das einzelne Leute wie Leonardo. In der Photografie sind das Leute wie Helmut Newton, die das können. Jeder hat einen Photoapparat, aber es gibt nur wenige Helmut Newtons. Bei den Filmregisseuren haben wir Billy Wilder im Bewegungsverhalten dieser Schauspieler. Jedes Mädchen wollte vielleicht einmal Schauspielerin werden. Wer bekommt das Bewegungsverhalten eines Humphrey Bogarts hin, eines James Deans? Da kann man doch nicht nach dem Motto „Hoppla, jetzt komm ich, jetzt animieren wird den mal“. Da fehlt der Respekt vor dem Problem. So kann man einen Dienst diskreditieren. Dr. v. Reden: Ich möchte jetzt meinerseits alle Beteiligten hier am Podium befragen, und zwar, auch im Sinne der Industrie, ob es Möglichkeiten gibt, die technischen Geräte so zu entwickeln, dass gleich die erste Version dienstbereit ist. Bei der Software sind wir leider inzwischen anderes gewohnt. Microsoft und nicht nur diese Firma hat es vorgemacht, preiswerte Softwareversionen ersten Anwender als Betatestern vorzuwerfen und aus den Erfahrungen dieser Anwender zu lernen. Es gibt sicher gute Gründe dafür, weil die Entwicklung einer bugfreien Software sonst vermutlich zu
226
Moderation: Wolf v. Reden
teuer wäre. Ist das bei den immer komplexeren Geräten eigentlich unabdingbar auch so oder gibt es Rezepte aus Sicht des Usability Engineerings, das verhindern zu helfen. Dr. Mühlbach: Ich glaube, das ist an einigen Punkten schon herausgekommen. Im Prinzip ist das eine Methodik, die so eigentlich schon lange existiert. Es sind hier gute Beispiele genannt worden. Man muss zunächst einmal überlegen, für wen diese Anwendung, dieses Produkt, in welchem Nutzungskontext eingesetzt werden soll. Ich habe versucht klarzumachen, dass man da heutzutage in der Regel empirisch vorgehen muss. Betatester; das ist auch unter wirtschaftlichen Gesichtspunkten eine Kosten-NutzenAnalyse. Ich bin der Meinung, dass sich immer stärker zeigen wird, dass eine frühe Einbeziehung des Nutzers in dieser Form, wie es hier zum Glück auch verstärkt schon angesprochen wurde, letztendlich auch wirtschaftlich viel tragbarer ist als Entwicklungen, die sich dann nicht durchsetzen auf dem Markt und sehr viel Entwicklungsaufwand bedeuten. Man kann es tun, es gibt dort Spielregeln. Es gibt Methoden, die man einsetzen muss. Und auf der organisatorischen Ebene gibt es auch da inzwischen gute Beispiele. Was schon angesprochen wurde: Interdisziplinäre Teams bei der Entwicklung sollten sich stärker durchsetzen, so dass diese Kompetenzen, die auch hier heute in der Tagung verstärkt schon dargestellt wurden, zusammengebracht werden und in einem Team ein bestimmtes Produkt entwickeln, wo der Nutzer dann eben auch in dieser Form mit repräsentiert wird. Prof. Spierling: Usability Design sollte natürlich einfach zu den Hausaufgaben gehören. Darüber – ob man es braucht oder nicht – sollte man nicht diskutieren müssen. Dennoch möchte ich einwerfen, dass wir auch nicht sagen können: „Wasch mich, aber mach mich nicht nass“. Die Menschen müssen lernen. Es ist ähnlich wie mit dem Alphabetismus; wir müssen ziemlich lange die Schulbank drücken, um unsere Zeichen entziffern zu können, mit denen wir jetzt so natürlich und intuitiv interagieren. Eigentlich müssen wir dann neue Zeichensysteme lernen, wenn wir mit neuen komplexen Systemen umgehen sollen. Irgendwo muss es ja herkommen. Dass wir, ohne irgendetwas zu lernen, einfach nur „nutzbare Technologie“ machen, sehe ich nicht. Wir haben auch sehr viel Bedarf daran, Lernen von „Systemkompetenz“ nachzuholen. Dazu fällt mir ein Beispiel ein, das heute im Bereich RFID zur Sprache kam. Wenn ich letztendlich nur die wahrnehmbaren Objekte hinzeichne, den Lkw und die Palette, kann ich die „reale Welt“ als „intuitive Objekte“ darstellen. Mit RFID habe ich es dann scheinbar „auf einmal“ mit einem komplexen System zu tun. Jedoch ist die „reale Welt“, die man hier abbilden sollte, nicht diese Objekte, sondern es ist eigentlich die Logistik. Und die ist von uns Menschen nur unintuitiv zu verstehen. Ich weiß nicht, wer Logistik intuitiv findet, es gibt sicherlich Ausnahmetalente. Was wir Menschen aber wirklich zum Begreifen davon lernen müssen, ist Systemkompetenz, und diese neue Technologie konfrontiert uns mit dieser Notwendigkeit, die vielleicht vor ihrer Existenz in dem Maße nicht gesehen wurde.
16 Diskussion
227
Prof. Picot: Ich möchte noch eine Frage an Herrn Dr. Punie stellen, und zwar zu Europa. Es ist heute immer wieder die Frage aufgetaucht, wo Europa auf diesem Gebiet des Zusammenspiels zwischen Mensch und Maschine im weiteren Sinne steht, zum einen in Bezug auf die Forschung und den Erkenntnisstand und zum anderen auch in Bezug auf die Fähigkeit, Systeme zu entwickeln und zu liefern und damit auch diese Zukunftstechnologie in einem gewissen Ausmaß zu besetzen und zu einer Basis für unsere Zukunft zu machen. Wie sehen Sie Europa im Verhältnis zu anderen Bereichen dieser Welt? Dr. Punie: This is of course a very important question but also a difficult question to address. There are many reports and studies on the competitiveness of Europe compared to other countries,in relation to ICTs. For example, we know that Europe is very strong in mobile communications but already people are saying, that maybe we are losing out our strength in mobile communications. I stressed in my presentation that it is time to act. Actually, that is kind of a reaction on the recent success stories of ICT developments in Asia, South-East Asia and Korea. It seems for instance, that Korea is developing itself quickly and strongly in the field of ubiquitious computing. There is a fear that Europe is lacking behind. But it is also important to understand that we cannot just copy successful innovation strategies. Korea is said to have successful information society strategy but we cannot copy because Europe is obviously different from Korea. The Korean policy implementations are for instance, very centralistic, top down, and autocratic. This is of course not possible in Europe. And that is why from a European perspective there is so much emphasis on cultural and linguistic diversity, multi-culturalism and creativity, Europe needs to build on its strengths. But it is not easy. Dr. Mühlbach Ich denke diese Frage wirft noch einen interessanten Aspekt auf, der bisher noch nicht beachtet wurde, auch nicht bei dem Vortrag über die mobilen Telefone: dass natürlich der kulturelle Aspekt eine ganz große Rolle spielt. Zum Beispiel ist es bei Computerspielen bekannt, dass keines der Top-Zehn-Spiele im Verkauf aus Japan unter den Top Zehn in den USA ist und umgekehrt. D.h., dass ein ganz tolles Computerspiel im US-Markt in Japan nicht ankommt und umgekehrt. Genauso ist es bei Benutzeroberflächen. Wir haben z.B. Benutzeroberflächen für Navigationssysteme im Auto. Sie können die deutschen Navigationssysteme in Japan nicht verkaufen und die japanischen kommen hier nicht an. Die Japaner wollen eine ganz andere räumliche Darstellung von Karten haben als wir. Neben all den benutzer-individuellen Studien muss man den kulturellen Hintergrund beachten – was in Japan schon bei der Farbgestaltung anfängt. Dieser Aspekt ist interessant und sollte auf jeden Fall bei Usability berücksichtig werden. Übrigens gibt es auch bei den Avataren interessante Studien, welche Avatare in Japan ankommen, welche in Europa, welche in den USA.
228
Moderation: Wolf v. Reden
Prof. Spierling: Dazu eine kurze Antwort. Diese Kulturunterschiede gibt es auch innerhalb Deutschlands, also innerhalb eines Landes; Subkulturen. Es ist schwierig, es allen recht zu machen, letztendlich wird ja zum Beispiel in Fernsehredaktionen untersucht, welche Menschen welche Charaktere auf dem Bildschirm mögen, und da gibt es so viele Unterschiede, wie es Subkulturen, Altersgruppen oder Geschlechter usw. gibt. Wenn man also in diese Richtung denkt, müsste man eigentlich bei der Unterhaltungsindustrie abgucken, wie dort letztendlich Zielgruppen adressiert werden. Dr. v. Reden: Und das führt letztendlich zu einer noch viel komplizierteren Frage, nämlich wie ist es denn mit den multi-modalen Interaktionsfähigkeiten, wenn man von den sog. entwickelten Ländern zu den Ländern der sog. dritten oder angepassten Welt kommt. Haben wir da nicht erst recht ein Kulturproblem zwischen der arabisch-islamischen Welt, die in letzter Zeit politisch sehr in den Mittelpunkt gerückt ist, oder der asiatischen oder afrikanischen Welt? Ich fürchte, das würde das Forum hier sprengen, obwohl es eine der spannendsten Fragen überhaupt ist, wie letztlich Usability-Fragen wird einer technologischen Entwicklung oder eher Vision einer Ambient Intelligence weltweit helfen können, sich durchzusetzen. Denn es ist ja die stille Hoffnung all der bunten Bilder, die wir heute gesehen haben, dass es sich nicht nur ein Geschäftsfeld handet, nicht nur Erträge liefert, sondern eben auch dem Menschen nutzen können soll, darf oder wird. Wie weit das die einzelnen Gesellschaften unterschiedlich adaptieren können, wird die Zukunft zeigen. Da können die Ingenieure allenfalls „Entwicklungs“hilfe leisten. Da können die Usability Ingenieure helfen, die digitale Umwelt kundenfreundlicher, vielleicht gar menschengerechter zu gestalten. Sie haben bemerkt, dass wir am Ende dieser Konferenz angekommen sind. Ich habe versucht, in meine begleitenden Bemerkungen noch einige Dinge aus dem Konferenzverlauf zu rekapitulieren und dadurch eine Art Schlussstatement und Zusammenfassung in diese letzte Sitzung einzuarbeiten. Ich möchte allen Referenten des Podiums und natürlich auch allen vorherigen Referentinnen und Referenten für ihre außerordentlich anregenden und vielfältigen Beiträge und insbesondere auch Ihnen, den Zuhörern, für Ihre Diskussionsbeiträge danken. Auch dem Back-Office des Kongresses und den Organisatoren des Münchner Kreises seinem Vorstand, seiner Geschäftsführung und Geschäftsstelle und insbesondere dem Forschungs- und Programmsausschuss, möchte ich meinen Dank aussprechen, dass sie diesen Tag möglich gemacht haben. Die Frage an Sie und an mich selbst, die noch übrig bleibt wäre jetzt eigentlich: Ist der Mensch nun „umhegt“ oder ist er „abhängig“ oder ist er gar „abgehängt“, wie heute von einem Teilnehmer postuliert wurde. Wir haben uns jedenfalls bemüht, dazu eine vielleicht nur eine sehr vorläufige Antwort zu finden.
Anhang
229
Anhang Liste der Referenten, Moderatoren und Panelteilnehmer List of Speakers, Chairmen and Panel Participants Prof. Dr. Thomas Christaller
Prof. Dr. Claudia Linnhoff-Popien
Fraunhofer Institut für Autonome Intelligente Systeme AIS Schloss Birlinghoven 53754 Sankt Augustin
Universität München Institut für Informatik Oettingenstr. 67 80538 München
Prof. Dr.-Ing. Jörg Eberspächer
Dr. Lothar Mühlbach
Technische Universität München Lehrstuhl für Kommunikationsnetze Arcisstr. 21 80290 München
Fraunhofer Institut für Nachrichtentechnik Heinrich-Hertz-Institut HHI Einsteinufer 37 10587 Berlin
Prof. Dr.-Ing. José Encarnação Fraunhofer Institut für Graphische Datenverarbeitung Fraunhoferstr. 5 64283 Darmstadt Prof. Dr. Elgar Fleisch
Dr. Krishna S. Nathan IBM Research GmbH Säumerstr. 4 CH-8803 Rüschlikon Prof. Dr. Dres. h.c. Arnold Picot
Universität St. Gallen Institut Technologiemanagement Dufourstr. 40a CH-9000 St. Gallen
Universität München Institut für Information, Organisation und Management Ludwigstr. 28 80539 München
Prof. Dr. phil. Siegfried Frey
Jens-Thomas Pietralla
Universität Duisburg-Essen F1 – InKK – LE 313 Lotharstr. 65 47048 Duisburg
Chief Marketing Officer Siemens Com Siemens AG Com M Haidenauplatz 1 81617 München
Stefan Holtel Vodafone Pilotentwicklung GmbH Chiemgaustr. 116 81549 München
Dr. Yves Punie Institute for Prospective Technological Studies (IPTS) Edificio Expo Calle Inca Garcilaso, s/n E-41092 Sevilla
230
Anhang
Dr. Wolf v. Reden
Rena Tangens
Fraunhofer Institut für Nachrichtentechnik, Heinrich-Hertz-Institut HHI Einsteinufer 37 10587 Berlin
FoeBuD e.V. Marktstr. 18 33602 Bielefeld
Boris de Ruyter
Geschäftsführer DFKI GmbH Stuhlsatzenhausweg 3 66123 Saarbrücken
Senior Scientist Philips Research Professor Holstlaan 4 NL-5656 AA Eindhoven
Prof. Dr. Dr. h.c. mult. Wolfgang Wahlster
Dr. Gerrit Wiegmink Prof. Ulrike Spierling Fachhochschule Erfurt FB Angewandte Informatik Altonaer Str. 25 99085 Erfurt
Deutsche Post AG Leiter ZGBK Sträßchenweg 10 53250 Bonn