Hauptnavigation

Diplomarbeiten im Themengebiet Agenten

Agenten sind im Deutschen Vermittler (bei Agenturen) oder Spione. Im Englischen wird ebenfalls das aktive Handeln im Interesse anderer betont [Collins]. Eine technische Definition des Fachbegriffs der Informatik ist:
    An agent is everything that can be viewed as perceiving its environment through sensors and acting upon the environment through effectors. [Russell/Norvig/95a]
Die wichtigen Merkmale eines informationsverarbeitenden Systems, die es zu einem k?nstlichen Agenten machen, sind also:
  • Wahrnehmung der Umwelt
  • Verfolgung von Zielen
  • Einwirkung auf die Umwelt
  • R?ckkopplung der Handlungen auf die Wahrnehmung
  • Bewertung des Erfolgs der Handlungen

Zun?chst wurden ausschliesslich Roboter als Agentensysteme, autonomous agents, betrachtet. Mitte der 90er Jahre begann man aber, auch Programme als Agenten, softbots, aufzufassen. Deren Umwelt ist das Internet, in dem sie sich auch bewegen k?nnen, so dass auch der Begriff der mobilen Agenten heute sowohl auf Roboter wie Softboter zutrifft. Die Entwicklung einzelner Software-Agenten wurde als neue Sicht auf die verteilte Programmentwicklung aufgefasst. Statt eines Systems mit verschiedenen Modulen (Objekten, Prozeduren,...) sollen voneinander unabh?ngig Agenten einer bestimmten Funktionalit?t entwickelt werden, die ihre Dienste anbieten. Erst die Kooperation verschiedene Agenten ergibt insgesamt intelligentes Verhalten. Man spricht von Multiagentensystemen. Neben zahlreichen Plattformen zur Entwicklung von Agentensystemen (23 kommerzielle Produkte und 37 akademische Entwicklungen sind mir bekannt) und einem von gro?en Firmen gesponserten Gro?versuch (agentcities) gibt es bereits zahlreiche Anwendungen insbesondere in der Produktionsplanung und Logistik (logistische Netzwerke) und im electrinic commerce.

Dadurch r?ckt nat?rlich in den Vordergrund, wie verschiedene, voneinander unabh?ngige Agenten sich verst?ndigen k?nnen. Zun?chst wurde auf die Erfahrung der Stanforder Gruppe zur?ckgegriffen, die mit KIF (knowledge interchange format und KQML knowledge query and manipulation language eine Standardisierung f?r heterogene, verteilte Systeme versuchte. Seit 1997 ist die Spezifikation der Foundation for Intelligent Physical Agents (FIPA) der Bezug f?r die Entwicklung von Systemen, in denen verschiedene Agenten kooperieren. In wieweit Inhalte einer Kommunikation - z.B. in Form von Sachbereichsstrukturen (Ontologien) - in den Standard einflie?en sollen und was die Semantik der Kommunikationssprache sein soll (logische Fundierung) sind Themen, die zur Zeit diskutiert werden.

Konkret werden Agenten hier zur Auswahl interessanter WWW-Seiten für einen Benutzer, zum Filtern von Nachrichten oder elektronischen Briefen, aber auch zur Hilfestellung bei Planungen (z.B. in der Fabrikation) eingesetzt. Eine erfolgreiche PG (BotIshelly) hat zu lernenden Agenten im WWW stattgefunden und mehrere Diplomarbeiten sind zu diesem Thema abgeschlossen oder noch in Arbeit. Im Projekt COMRIS wurde der Information Layer entwickelt, ein System, das zu einer Ontologie Informationen über das WWW bereitstellt. Eine Ontologie ist eine Struktur für einen Sachbereich, zu dem Informationen abgelegt sind. Grundlage dafür ist XML. Die Ontologie sowie auch die WWW-Seiten sind intern in XML dargestellt, werden aber noch in HTML angezeigt.

Verwandte Projekte:

Teilgebiete:

  1. Verwendung von Ontologien
  2. Informationsextraktion
  3. Kommunikation von Agenten

Zurück zur Übersicht der Themengebiete.


1. Verwendung von Ontologien

Nehmen wir an, zu einer Taxonomie von Themen (Ontologie) wären URLs eingetragen, d.h. die zu URLs gehörigen Seiten enthalten Informationen zu einem Knoten der Ontologie. Da das WWW dynamisch ist, kann sich der Inhalt der durch die URL gegebenen Seite ändern. Anhand der Seiten von MLnet und ihrer zugehörigen Ontologie soll geprüft werden, ob die eingetragenen URLs noch zu dem betreffenden Knoten passen.

Siehe auch:

Themenvorschläge:

Intelligenter URL Checker:
Oft findet sich unter der einmal zu einem Ontologiepunkt angegebenen URL gar kein Eintrag mehr oder es gibt einen Verweis auf eine neue URL, unter der die alte Information zu finden ist. So etwas kann von gängigen Web Spidern nicht verarbeitet werden. Bei Agenten- Systemen soll aber nicht ausgerechnet für solche Überprüfungen ein Mensch eingesetzt werden!
Gegeben:Mengen von URLs (aus MLnet).
Page Tracker:
Wenn nun unter einer URL eine Information nicht mehr zu finden ist, die zu einem Ontologiepunkt passt, wo ist sie dann hingewandert? Typisches Beispiel für dies Problem sind etwa die Kursunterlagen zu Lehrveranstaltungen. Nach Ablauf des Semesters pflegen sie nicht gelöscht, wohl aber verlagert zu werden. Wie kann ein Agent die neue URL finden? Welche Heuristiken lassen sich angeben?
Gegeben: URLs zu Lehrveranstaltungen und Kursunterlagen zu maschinellem Lernen europäischer Universitäten (MLnet).
Inhaltsidentifikation:
Entwicklung eines Agenten, der mittels der SVM-light eine Entscheidungsfunktion aus den Texten zu einem Knoten der Ontologie lernt und dann später diese Entscheidungsfunktion auf die URLs zu diesem Knoten anwendet. Dass sich der Inhalt der URL geändert hat, wird daran deutlich, dass die Entscheidungsfunktion den (neuen) Text der URL anders klassifiziert als es der Knoten angibt.
Gegeben: MLnet, Ontologie, Werkzeug zur Überführung von HTML-formatierten Texten in Wortvektoren, SVM-light.

Zum Seitenanfang.


2. Informationsextraktion

Bisher wurden meist ganze WWW-Seiten nach ihrem Inhalt klassifiziert. Manchmal möchte man aber gezielt Informationen aus diversen WWW-Seiten extrahieren. Zum Beispiel möchte man in unterschiedlich strukturierten Seiten verschiedener europäischer Lehrstühle jeweils die Publikationen des Lehrstuhls, den Lebenslauf der Professorin (des Professors), Institute, an denen sie (er) gearbeitet hat, oder die Mitgliedschaft in Herausgebergremien bzw. Programmkomitees herausfinden. Dabei gibt es das Problem, in dem WWW-Bereich die richtige Stelle und in dem richtigen Textausschnitt die betreffende Information zu finden.

Themenvorschläge:

Web-Strukturen erkennen:
Für eine Darstellung des WWW-Bereichs als Graph, dessen Kanten Hyperlinks von einer WWW-Seite auf eine andere sind, ist zu prüfen, was als Hinweis auf den Text, in dem die gesuchten Informationen stecken, genutzt werden kann: Ankertexte, Überschrift der Seite, auf die verwiesen wird, Überschrift der Seite, von der aus verwiesen wird,...
Gegeben: eine Menge von URLs von europäischen Lehrstühlen (MLnet)
Heuristische Extraktion:
Eine kleine Ontologie für die zu extrahierenden Informationen kann leicht mithilfe des Information Layer entwickelt werden. Hat man die zu einem Ontologieknoten passende Information gefunden, kann sie ebenso leicht in den Information Layer eingetragen werden. Das Problem ist aber noch, aus einem Text die Information zu extrahieren, ohne natürliche Sprache verstehen zu müssen. Es ist zu prüfen, ob Schlüsselwörter, Annotationen (tags) in HTML, bestimmte Formatierungen oder Positionen innerhalb des Textes (z.B.: Literaturangaben unten) gute Hinweise sind. Dabei wird auch die Frage beantwortet, ob es günstiger ist, die HTML-Seite oder den entsprechenden ascii-Text zu verwenden.
Gegeben: eine Menge von URLs, ein Werkzeug zur Überführung der HTML-Seiten in ascii-Texte, eine Reihe bestimmter zu extrahierender Informationen, der Information Layer

Ein alternativer Ansatz findet sich unter dem Themengebiet Sprache.

Zum Seitenanfang.


3. Kommunikation von Agenten

Wenn verschiedene Agenten miteinander kommunizieren sollen, so brauchen sie eine gemeinsame Ontologie. Tatsächlich kann aber nicht davon ausgegangen werden, dass Agenten immer dieselbe "Sicht auf die Welt" haben. Nehmen wir einmal an, Agent A hätte die Ontologie a und Agent B die Ontologie b. Gesucht ist dann eine Abbildung von a nach b.

Themenvorschlag:

Ontologiekompetenz:
Wie kann ein Agent B aus einer kleinen Anzahl von Inhaltpräsentationen (Inhalt und Ontologieknoten in a) lernen, dass ein Knoten seiner Ontologie genau einem Knoten in a entspricht? Kann die Annahme der genauen Entsprechung aufgehoben werden? Wo liegen die Schwierigkeiten bei der Abbildung von a nach b? Welche Anfragen an A machen die Aufgabe für B leichter?
Gegeben: Zwei Instanzen des Information Layers mit zwei unterschiedlichen Ontologien, a und b, wobei dieselben inhaltlichen Informationen abgelegt sind. Es wird angenommen, dass der Agent B seine Ontologie b kennt und Beispiele von a mit Inhalten sieht.

Nehmen wir an, verschiedene Agenten würden Informationen in den Information Layer eintragen. Dabei kann es vorkommen, dass die Qualität der Eintragungen höchst unterschiedlich ausfällt. Gefragt ist nun ein Bewertungsagent, der die Ergebnisse anderer Agenten beurteilt und nachher wie ein Filter eingesetzt werden kann, so dass nur die besten Agenten tatsächlich ihre Information in den Information Layer eintragen.

Themenvorschlag:

Bewertungsagent:
Die Beziehungen zwischen Teilnehmern (Ko-Autoren, Mitglied im selben europäischen Projekt, gemeinsame Herausgebergremien oder Programmkomitees) können anhand der Informationen, die die Agenten liefern, hergestellt und als Fakten in MOBAL eingetragen werden. Das relationale Lernverfahren RDT von MOBAL kann nun die Klassifikation aus der KI-Umfrage verwenden, um allgemeine Regeln zu lernen, welche Gemeinsamkeiten eine gute Vorhersage zulassen, dass zwei Menschen sich treffen wollen. Je nachdem, welche Angaben das Lernverfahren als relevant einstuft, kann der Agent, der die entsprechende Information geliefert hat, als hochwertig eingestuft werden.
Gegeben: Verschiedene Agenten, die Informationen über einen Tagungsteilnehmer herausfinden, das System MOBAL, eine Menge von Tagungsteilnehmern, die angegeben haben, welche anderen Teilnehmer sie gern treffen möchten (Umfrage auf der Tagung KI-99)

Zum Seitenanfang.

Zur Auswahl interessanter WWW-Seiten für einen Benutzer, zum Filtern von Nachrichten oder elektronischen Briefen, aber auch zur Hilfestellung bei Planungen (z.B. in der Fabrikation) werden künstliche Agenten eingesetzt. Eine erfolgreiche PG (BotIshelly) hat zu lernenden Agenten im WWW stattgefunden und mehrere Diplomarbeiten sind zu diesem Thema abgeschlossen oder noch in Arbeit. Im Projekt COMRIS wurde der Information Layer entwickelt, ein System, das zu einer Ontologie Informationen über das WWW bereitstellt. Eine Ontologie ist eine Struktur für einen Sachbereich, zu dem Informationen abgelegt sind. Grundlage dafür ist XML. Die Ontologie sowie auch die WWW-Seiten sind intern in XML dargestellt, werden aber noch in HTML angezeigt.

Verwandte Projekte:

Teilgebiete:

  1. Verwendung von Ontologien
  2. Informationsextraktion
  3. Kommunikation von Agenten

Zurück zur Übersicht der Themengebiete.


Literatur

Russell/Norvig/95a Russell, Stuart and Norvig, Peter (1995). Artificial Intelligence: A Modern Approach. Prentice Hall.
[Collins]Collins English Dictionary: 1) a person which acts on behalf of another person, group or business; 2) a pserson or thing that acts or has the power to act; 3) a substance or organism that exterts some force or effect; 4) the means by which something occurs or is achieved; 5) a person representing a business concern (traveling salesman).