{"id":100,"date":"2013-02-01T13:45:22","date_gmt":"2013-02-01T12:45:22","guid":{"rendered":"http:\/\/hrkll.ch\/WordPress\/?page_id=100"},"modified":"2013-02-08T19:06:49","modified_gmt":"2013-02-08T18:06:49","slug":"kommunikation-zwischen-autonomen-agenten","status":"publish","type":"page","link":"https:\/\/hrkll.ch\/WordPress\/lernen-durch-mitmachen\/theoriebildung\/kuenstliche-intelligenz\/kommunikation-zwischen-autonomen-agenten\/","title":{"rendered":"Kommunikation zwischen autonomen Agenten"},"content":{"rendered":"<p>Auch im Bereich der Kommunikation zwischen autonomen Agenten existiert unterdessen bereits eine umfangreiche Literatur als Folge diverser Workshops die zu diesem Thema durchgef\u00fchrt wurden. Allerdings ist das Feld noch ziemlich im Aufbruch: &#8222;There seems to be little consensus on the basics of agent communication. There is no clear understanding of the semantics of individual speech acts &#8230; Even less is known about the semantics of conversation and the relation between speech acts and the conversation of which they form a part.&#8220; (Dignum &amp; Greaves, 2000)<\/p>\n<p>Da dabei meist die spezifische Situation autonomer Softwareagenten diskutiert wird, ist vieles davon nicht speziell f\u00fcr das W.U.S. Projekt relevant. Darunter fallen z.B. Themen wie:<\/p>\n<ul>\n<li>Zuteilung knapper Ressourcen bei mehreren gleichzeitig aktiven Agenten (Wagner et al., 2000)<\/li>\n<li>Dialogpartner die pl\u00f6tzlich verschwinden oder sonst irgendwie inaktiv werden (Nodine &amp; Unruh, 2000)<\/li>\n<li>Finden und verpflichten geeigneter anderer Agenten als Partner (Dignum, Dunin-Keplicz &amp; Verbrugge, 2000)<\/li>\n<li>Interaktion zwischen Agenten sehr unterschiedlicher &#8222;Intelligenz&#8220; Greaves, et al. 2000)<\/li>\n<li>Standardisierte Sprachen, so dass beliebige neue Agenten eingef\u00fcgt werden k\u00f6nnen (<a href=\"http:\/\/www.cs.umbc.edu\/kqml\/\" target=\"_blank\">KQML<\/a> und <a href=\"http:\/\/www.fipa.org\/\" target=\"_blank\">FIPA ACL<\/a>)<\/li>\n<\/ul>\n<p>Anregend scheinen mir aus der ganzen Diskussion einerseits ein genereller \u00dcberblick \u00fcber die Themen des Feldes (Dignum &amp; Greaves) und einige \u00dcberlegungen zum Thema &#8222;Conversation Policies&#8220;.<\/p>\n<h3>Zentrale Themen des Gebiets<\/h3>\n<p>(Dignum, F. &amp; Greaves, M. (2000). <strong>Issues in Agent Communication: An Introduction)<\/strong><\/p>\n<h4>Agententheorien<\/h4>\n<p>Es wird eine explizite Theorie ben\u00f6tigt, die beschreibt, wie Agenten &#8222;denken&#8220;. Ein beliebtes Modell ist das BDI (Belief, Desire, Intention). Oft werden allerdings nur vereinfachte Speech Acts angenommen: Kommunikation ist Aktion wie jede andere auch, Hauptziel ist die Ver\u00e4nderung der Meinungen (beliefs) andere Agenten.<\/p>\n<h4>Semantik<\/h4>\n<p>Was bedeutet\/ was will ein Speech Act (Vorbedingungen, Folgen)? Dies ist eine schwieriges Thema unter anderem darum, da die einzelnen Agenten autonom sind, sich also gegenseitig nicht zu etwas zwingen k\u00f6nnen. Die Folgen eines Speech Acts k\u00f6nnen also nicht gleich beschreiben werden, wenn etwa die Folge der Aktion &#8222;X auf einen Tisch stellen&#8220; (\u00de &#8222;X steht auf dem Tisch&#8220;).<\/p>\n<h4>Ontologie<\/h4>\n<p>Es muss in der Sprache, in der die Kommunikation abl\u00e4uft, m\u00f6glich sein, auf Gegenst\u00e4nde etc. im Umfeld Bezug zu nehmen. Dies ist eine besondere Herausforderung f\u00fcr standardisierte Fragen, die solche Verweise f\u00fcr beliebige Anwendungsbereiche flexibel zulassen m\u00fcssen.<\/p>\n<h4>Vollst\u00e4ndigkeit der Nachrichtentypen<\/h4>\n<p>Welche Typen von Nachrichten braucht es \u00fcberhaupt?<\/p>\n<h4>Conversation Policies<\/h4>\n<p>Wie h\u00e4ngen die einzelnen \u00c4usserungen als Konversation zusammen? Was ist die semantische Basiseinheit, die Konversation oder der Speech Act? CP braucht es, weil es auf der Ebene isolierter \u00c4usserungen viel zu viele Interpretationsm\u00f6glichkeiten gibt (z.B. ist eine Feststellung nun wirklich eine Feststellung oder eher eine Frage?) und damit die Agenten bei der Interpretation schnell \u00fcberfordert sind..<\/p>\n<h3>Taskmodell und Dialogmodell<\/h3>\n<p>Elio et al. (2000) und Nodine &amp; Unruh (2000) gehen beide davon aus, dass Sinn macht, den ganzen Ablauf eines Kooperation mehrerer Agenten durch zwei &#8222;Modelle&#8220; zu steuern: Das Taskmodell und das Dialogmodell. Diese Modelle sind Vorgaben, wie die Interaktion und Kommunikation abzulaufen hat. Das Taskmodell steuert \u00fcbergreifend das Vorgehen zum L\u00f6sen eines bestimmten Aufgabentyps. Einzelne Dialogmodelle kommen zum Zug, wenn im Verlauf der Bearbeitung der Aufgabe Kommunikation zur Koordination, zum Austausch von Informationen etc. notwendig wird. (In der Sprache von <a title=\"11. Probleml\u00f6sen zu zweit (1980 \u2013 84)\" href=\"http:\/\/hrkll.ch\/WordPress\/?page_id=671\">Probleml\u00f6sen zu zweit<\/a> w\u00e4re des Taskmodell durch die Kooperationsregeln gegeben, die Dialogmodelle durch die einzelnen Zirkel).<\/p>\n<p>Elio et al. (2000) bezeichnen gehen vom Bild aus, dass sie die Agenten in zwei &#8222;Problemr\u00e4umen&#8220; bewegen, dem Problemraum des Task und darin eingebettet jeweils dem Problemraum eines bestimmten Dialogs. Stockungen im Ablauf am einen oder anderen Ort f\u00fchrt zu einem Wechsel. An einer bestimmten Stelle im Task kann es notwendig sein, den Dialog anzuwerfen (z.B. Fragen stelle). An bestimmten Stellen im Dialog (z.B. wenn Frage nicht beantwortet werden kann) wird es notwendig, am Task weiterzuarbeiten. (Entspricht beim\u00a0<a title=\"11. Probleml\u00f6sen zu zweit (1980 \u2013 84)\" href=\"http:\/\/hrkll.ch\/WordPress\/?page_id=671\">Probleml\u00f6sen zu zweit<\/a> dem \u00fcber Frage\/Antwort-Verbindungen zusammengeh\u00e4ngte Suchbaum.) Ihr Ziel: &#8222;It is possible to define conversation policies, such as communication or dialogue protocols, that are based strictly on what messages and, respectively, what performatives may follow each other. While such an approach has many practical applications, such protocols support only &#8222;local coherence&#8220; in a conversation. In a mixed-initiative dialogue between two agents cooperating on some joint task, there must be a &#8218;global coherence&#8216; in both the conversation and in the task they are trying to accomplish. Recognition of agent intentions about the joint task is essential for this global coherence, but there are further mechanisms needed to ensure that both local and global coherence are jointly maintained.&#8220;<\/p>\n<p>Als Konsequenz davon sind die Dialogmodelle relativ kompakt und auf spezifische Gegebenheiten zugeschnitten und bilden einen modularen Baukasten.<\/p>\n<p>Nodine &amp; Unruh (2000) beschreiben einen m\u00f6glichen Baukasten im Detail. Jedes Element ist ein kleines ATN. Als fundamentale Grundeinheiten, die auch f\u00fcr W.U.S. wichtig sind, sehen sie:<\/p>\n<ol>\n<li>a &gt; tell &gt; b<\/li>\n<li>a &gt; tell &gt; b &gt; reply &gt; a<\/li>\n<li>a &gt; ask &gt; b &gt; reply &gt; a<\/li>\n<li>a &gt; * &gt; (b, c, d, &#8230;) (&#8222;multicast&#8220;, gleichzeitig mehrere gezielt ansprechen)<\/li>\n<li>a &gt; * &gt; * (&#8222;broadcast&#8220;, Alle ansprechen, die es h\u00f6ren)<\/li>\n<li>a &gt; ask &gt; b &gt; ask &gt; c &gt; reply &gt; b &gt; reply &gt; a (&#8222;forwarding&#8220;, Frage weiterleiten)<\/li>\n<li>a &gt; ask &gt; b &gt; propose(c) &gt; a &gt; ask &gt; c (&#8222;delegation&#8220;, anderen Gespr\u00e4chspartner vorschlagen)<\/li>\n<\/ol>\n<p>(3 entspricht dem Frage-Antwort-Zyklus aus <a title=\"11. Probleml\u00f6sen zu zweit (1980 \u2013 84)\" href=\"http:\/\/hrkll.ch\/WordPress\/?page_id=671\">Probleml\u00f6sen zu zweit<\/a>; der Frage-Gegenfrage-Zyklus w\u00e4re ein zweites 3 an ein 3 angeh\u00e4ngt, nachdem ein paar Schritte im Taskmodell absolviert wurden)<\/p>\n<p>Man kann diese Abl\u00e4ufe mehr oder weniger robust gegen\u00fcber Fehler machen. Wird z.B. ein &#8222;ask&#8220; von b an eine c weitergeleitet, ist es hilfreich, wenn sowohl a wie c dar\u00fcber informierte werden, dass b nur Zwischentr\u00e4ger spielt. F\u00e4llt etwa b aus, k\u00f6nnen dann a und c direkt miteinander in Kontakt treten. Treten bei einem dieser Abl\u00e4ufe Probleme auf, wird die entsprechende Grundeinheiten adhoc durch bestimmte vordefinierte Erweiterungsm\u00f6glichkeiten erg\u00e4nzt:<\/p>\n<ol type=\"a\">\n<li>discard: Aussteigen und sich abmelden ab beliebigem Knoten<\/li>\n<li>error: Fehlermeldung an alle Beteiligten ab beliebigem Knoten<\/li>\n<\/ol>\n<p>(b kommt dem Frage-Verst\u00e4ndnisgegenfrage-Zyklus aus\u00a0<a title=\"11. Probleml\u00f6sen zu zweit (1980 \u2013 84)\" href=\"http:\/\/hrkll.ch\/WordPress\/?page_id=671\">Probleml\u00f6sen zu zweit<\/a> nahe)<\/p>\n<p>Als weitere Elemente f\u00fchren sie noch:<\/p>\n<ul>\n<li>subscribe<\/li>\n<li>periodic<\/li>\n<\/ul>\n<p>Soweit sich das aus den graphischen Darstellungen der ATNs ablesen l\u00e4sst, geht es dabei um den Wunsch von a an b, kontinuierlich \u00fcber etwas auf dem Laufenden gehalten zu werden.<\/p>\n<p>Damit erhalten Nodine &amp; Unruh (2000) einen recht flexiblen Baukasten. In ihren eigenen Worten: &#8222;In this paper, our basic conversation policies define only correct operation. We have implemented a mechanism for composing a conversation with an appropriate extension when deviant or unforeseen events happen that affect the conversation. Examples of extension include errors, discards, and delegation. We also support a notion of composing different basic conversations together into a more complex conversation using concatenation. This allows us, for instance, to do negotiated asks, achieves, tells, etc. It also allows us to do a standby with respect to some other conversation, such as an ask. Both extension and concatenation can be described formally, based on the underlying nite-state representation of the conversation.&#8220;<\/p>\n<p>Greaves, Holmback, &amp; Bradshaw (2000) gehen auch davon aus, dass die Dialoge von relativ modularen &#8222;conversation policies&#8220; gesteuert werden. Ihre Elemente sind aber nicht in ein \u00fcbergreifendes Taskmodell eingebettet und sehen dann auch entsprechend anders aus:<\/p>\n<ul>\n<li>CP f\u00fcr Turn Taking<\/li>\n<li>CP f\u00fcr &#8222;zum Ende kommen&#8220;<\/li>\n<li>CP f\u00fcr &#8222;Empfangsbest\u00e4tigungen&#8220;<\/li>\n<li>CP f\u00fcr Problembehandlungen<\/li>\n<\/ul>\n<p>Solche CPs k\u00f6nnen mehrere gleichzeitig aktiv sein und aus ihnen ergeben sich &#8222;computational models&#8220; (Dialogmodelle ?), die den Ablauf steuern. Diese k\u00f6nnen in den einzelnen Agenten mit ganz unterschiedlichen Methoden implementiert sein, solange die nur miteinander interagieren k\u00f6nnen.<\/p>\n<h3>Den aktuellen Wissensstand kommunizieren<\/h3>\n<p>Eine etwas technischer, aber interessanter Vorschlag zur Frage, wie denn Agenten, die gemeinsam an einem Problem arbeiten, sich \u00fcber den aktuellen Wissensstand informieren k\u00f6nnten, findet sich bei Davies &amp; Edwards (1997). Sie gehen von Agenten aus, die mit Hilfe des Version Space Algorithmus (Mitchell) arbeiten. Anstelle bei Bedarf einem Partner die gerade wahrscheinlichste Hypothese mitzuteilen, k\u00f6nnte es n\u00fctzlich sein, gerade den ganzen noch offenen Version Space darzustellen, d.h. je die Menge der spezifischsten und der allgemeinsten noch m\u00f6glichen Hypothesen.<\/p>\n<h3>Literatur<\/h3>\n<ul>\n<li>Davies, W. &amp; Edwards, P. (1997). <strong>The Communication of Inductive Inferences<\/strong>. In: <em>Weiss, G.: Distributed Artificial Intelligence Meets Machine Learning: Learning in Multi-Agent Environments. Lecture Notes in Computer Science, Artificial Intelligence. Berlin, Springer. 1237: 221-241.<\/em><\/li>\n<li>Dignum, F. &amp; Greaves, M. (2000). <strong>Issues in Agent Communication: An Introduction<\/strong>. In: <em>Dignum, F. &amp; Greaves, M.: Issues in agent communication. Lecture Notes in Artifical Intelligence.<\/em> <em>1916. Berlin, Springer: 1-16.<\/em><\/li>\n<li>Dignum, F. &amp; Greaves, M., Eds. (2000). <strong>Issues in agent communication<\/strong>. <em>Lecture Notes in Artifical Intelligence.<\/em> <em>1916. Berlin, Springer.<\/em><\/li>\n<li>Dignum, F., Dunin-Keplicz, B. &amp; Verbrugge, R. (2000). <strong>Dialogue in Team Formation<\/strong>. In: <em>Dignum, F. &amp; Greaves, M.: Issues in agent communication. Lecture Notes in Artifical Intelligence. Berlin, Springer: 264-280.<\/em><\/li>\n<li>Elio, R., Haddadi, A. &amp; Singh, A. (2000). <strong>Task Models, Intentions, and Agent Conversation Policies<\/strong>.<em>: Proceedings of the Pacific Rim Conference on AI (PRICAI-2000). Lecture Notes in Artificial Intelligence.<\/em> <em>1886. Berlin, Springer: 394-403.<\/em><\/li>\n<li>Greaves, M., Holmback, H. &amp; Bradshaw, J. (2000). <strong>What is a Conversation Policy?<\/strong> In: <em>Dignum, F. &amp; Greaves, M.: Issues in agent communication. Lecture Notes in Artifical Intelligence. Berlin, Springer: 118-131.<\/em><\/li>\n<li>Nodine, M. H. &amp; Unruh, A. (2000). <strong>Constructing Robust Conversation Policies in Dynamic Agent Communities<\/strong>. In: <em>Dignum, F. &amp; Greaves, M.: Agent Communication. Lecture Notes in Artifical Intelligence.<\/em> <em>1916. Berlin, Springer: 205-219.<\/em><\/li>\n<li>Wagner, T., Benyo, B., Lesser, V. &amp; Xuan, P. (2000). <strong>Inverstigating Interactions between Agent Conversations and Agent Control Components<\/strong>. In: <em>Dignum, F. &amp; Greaves, M.: Agent Communication. Lecture Notes in Artifical Intelligence.<\/em> <em>1916. Berlin, Springer: 314-330.<\/em><\/li>\n<\/ul>\n","protected":false},"excerpt":{"rendered":"<p>Auch im Bereich der Kommunikation zwischen autonomen Agenten existiert unterdessen bereits eine umfangreiche Literatur als Folge diverser Workshops die zu diesem Thema durchgef\u00fchrt wurden. Allerdings ist das Feld noch ziemlich im Aufbruch: &#8222;There seems to be little consensus on the &hellip; <a href=\"https:\/\/hrkll.ch\/WordPress\/lernen-durch-mitmachen\/theoriebildung\/kuenstliche-intelligenz\/kommunikation-zwischen-autonomen-agenten\/\">Weiterlesen <span class=\"meta-nav\">&rarr;<\/span><\/a><\/p>\n","protected":false},"author":7,"featured_media":0,"parent":94,"menu_order":1,"comment_status":"closed","ping_status":"closed","template":"sidebar-page.php","meta":{"footnotes":""},"class_list":["post-100","page","type-page","status-publish","hentry"],"_links":{"self":[{"href":"https:\/\/hrkll.ch\/WordPress\/wp-json\/wp\/v2\/pages\/100","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/hrkll.ch\/WordPress\/wp-json\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/hrkll.ch\/WordPress\/wp-json\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/hrkll.ch\/WordPress\/wp-json\/wp\/v2\/users\/7"}],"replies":[{"embeddable":true,"href":"https:\/\/hrkll.ch\/WordPress\/wp-json\/wp\/v2\/comments?post=100"}],"version-history":[{"count":0,"href":"https:\/\/hrkll.ch\/WordPress\/wp-json\/wp\/v2\/pages\/100\/revisions"}],"up":[{"embeddable":true,"href":"https:\/\/hrkll.ch\/WordPress\/wp-json\/wp\/v2\/pages\/94"}],"wp:attachment":[{"href":"https:\/\/hrkll.ch\/WordPress\/wp-json\/wp\/v2\/media?parent=100"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}