Künstliche Intelligenz

Allgemeine Definition

Die künstliche Intelligenz (Abk. KI, E artificial intelligence, Abk. AI) ist ein Teilgebiet der Informatik, welches sich mit der Erforschung von Mechanismen des intelligenten menschlichen Verhaltens befaßt (Intelligenz). Dieses geschieht durch Simulation mit Hilfe künstlicher Artefakte, gewöhnlich mit Computerprogrammen auf einer Rechenmaschine.

Der Begriff „künstliche Intelligenz“ wurde von dem amerikanischen Informatiker John McCarthy (1927-2011 erfunden. Er gebrauchte ihn in der Überschrift eines Projektantrags für eine mehrwöchige Konferenz, die im Jahr 1956 im Dartmonth College in den USA stattfand. Bei dieser Veranstaltung stellte man Programme vor, die Schach und Dame spielten, Theoreme bewiesen sowie Texte interpretierten.

Empirische Definition

Die allgemeine Definition der KI leidet daran, daß die Begriffe „Intelligenz“ und „intelligentes menschliches Verhalten“ selbst noch nicht sehr gut definiert und verstanden sind. Andererseits ist die KI auch ein Werkzeug, mit dessen Hilfe man Theorien der Intelligenz empirisch testen kann. Die Ausführungen von Programmen auf Computern stellen empirische Experimente dar. Im Gegensatz zu anderen Teilgebieten der Informatik ist die künstliche Intelligenz eine empirische Disziplin. Diese Art der Definition der KI zieht weitere Fragen nach sich, vor allem führt sie zu dem Paradox einer Wissenschaft, deren Hauptziel es ist, sich selbst zu definieren. 1950 schrieb der britischer Mathematiker A.M. Turing (1912-1954) den für die KI entscheidenden Aufsatz „Computing Machinery and Intelligence“. Er stellt darin die Frage, wie man feststellen könne, ob ein Programm intelligent sei. Intelligenz definiert er dabei als „die Reaktion eines intelligenten Wesens auf die ihm gestellten Fragen“. Dieses Verhalten kann durch einen Test, den inzwischen bekannten Turing-Test festgestellt werden. Eine Testperson kommuniziert über ein Computerterminal mit zwei ihr nicht sichtbaren Partnern, einem Programm und einem Menschen. Kann die Testperson bei dieser Kommunikation nicht zwischen Menschen und Programm unterscheiden, wird das Programm als intelligent bezeichnet. Die dabei gestellten Fragen können aus einem beliebigen Gebiet stammen; wird das Gebiet jedoch eingeschränkt, so spricht man von einem eingeschränkten Turing-Test. Ein eingeschränktes Gebiet könnte z.B. medizinische Diagnose oder das Schachspielen sein. Durch diese Definition der Intelligenz umgeht man Fragen, die man nur schwer beantworten kann: Verwenden Programme überhaupt eine geeignete Form der Repräsentation? Sind sich intelligente Programme ihrer Handlungen bewußt? Kann intelligentes Verhalten nur von lebenden Organismen erzeugt werden? – Diese empirische Art der Definition von Intelligenz hat weitreichende Folgen für die Entwicklung der KI, vor allem die Trennung der Architektur von der Hardware. Eine Kritik des Turing-Tests ist jedoch, daß die Wahrnehmung dabei unberücksichtigt bleibt. Intelligentes Verhalten kann durch unterschiedliche Methoden gebildet werden. Die meisten Forscher, die Programme schreiben, um intelligentes Verhalten nach dem Turing-Test zu imitieren, konzentrieren sich kaum auf die Wahrnehmung, sondern eher auf symbolische Wissensrepräsentation, die die Umwelt beschreiben soll.

Die Physical Symbol System Hypothesis

1975 stellten Allen Newell und Herbert A. Simon die Physical Symbol System Hypothesis (PSSH) auf: Um ein allgemeines intelligentes Verhalten durch ein physikalisches System zu erzeugen, soll das System Symbole manipulieren. Diese Bedingung ist notwendig und hinreichend. Notwendig bedeutet, daß jedes System, welches ein allgemein intelligentes Verhalten aufweist, Symbole manipuliert, unabhängig davon, ob biologisch oder maschinell. Hinreichend bedeutet, daß Intelligenz durch jedes geeignet angeordnete physikalische System erreicht werden kann. Der symbolische Ansatz der Repräsentation ist eng verwandt mit der Logik.

KI als Suche in einem Problemraum

Neben Beschreibung des Schlußfolgerns mit Prädikatenkalkül erster Stufe werden die Probleme in der KI oft durch die Repräsentation eines Problemraums sowie einer Suche in ihm beschrieben. Die abstrakte Darstellung eines Problems mit Hilfe eines Zustandsraums und die Suche nach gültigen Zügen in diesem Zustandsraum sind die wichtigsten Methoden der KI. Der schweizerische Mathematiker Leonhard Euler (1707-1783) führte 1735 eine abstrakte Darstellung der Beziehungen der Welt ein, indem er das Problem der Verbindungen der Brücken in der Stadt Königsberg untersuchte. Die Stadt befindet sich an zwei Seiten eines Flusses, in dessen Mitte sich zwei Inseln befinden. Die Inseln und beide Flußufer sind mit sieben Brücken verbunden. Um zu untersuchen, ob ein Spaziergang durch die Stadt möglich ist, bei dem jede Brücke nur einmal überquert wird, führte Euler eine Art Graphentheorie ein. Diese abstrakte Darstellung des Problems repräsentiert einen Zustandsraum, in dem die momentane Position des Spaziergängers zusammen mit den Übergängen zwischen den Brücken dargestellt werden kann. Zur Beantwortung der Frage, ob nun ein solcher Spaziergang möglich ist, wird eine Suche nach allen möglichen Routen durchgeführt. 1958 bis 1969 arbeiteten Newell und Simon an einem universellen Problemlöser, dem General Problem Solver (GPS). Dabei wird ein Problem durch eine Menge von Zuständen sowie eine Menge von Regeln beschrieben, welche die Zustände in andere Zustände überführen. Eine Regel kann ausgeführt werden, falls ihre angegebenen Vorbedingungen erfüllt werden können. Es gibt eine Menge von Anfangszuständen und eine Menge von Zielzuständen. Zusätzlich ist eine Differenztabelle angegeben, anhand derer man die Differenz zwischen dem momentanen Zustand und dem Zielzustand errechnen kann. Es werden die Regeln ausgeführt, deren Vorbedingung erfüllt sind und welche die Differenz zu den Zielzuständen minimieren. Das Minimieren ist eine heuristische Technik, eine Mittel-Ziel-Analyse (means-ends-analysis, MEA). Heuristiken oder Intuitionen sind Strategien, welche die Lösungssuche beschleunigen können. Das GPS-Programm verwendet die Repräsentation eines Problemraums sowie eine heuristische Suche in demselben. Produktionssystemewie das GPS sin
d ein wichtiges Werkzeug der KI. Sie bestehen aus Regeln (entspricht dem Langzeitgedächtnis) sowie einem Arbeitsspeicher (Arbeitsgedächtnis), in dem sich die Beschreibung der Welt befindet. Ziel ist es, ausgehend von einem Startzustand einen Zielzustand zu erreichen. Dies wird mit Hilfe einer Suchstrategie durchgeführt. Produktionssysteme werden benutzt, um das Wissen von Experten in den sogenannten Expertensystemen zu modellieren. Newell baute 1990 mit Hilfe der Produktionsysteme ein Modell des menschliches Denkens auf, das SOAR-Modell (Abk. für state, operator, apply and result), welches lernen und entscheiden kann, abhängig vom Kontext eines bestimmten Zustands.

Verhaltensbasierte KI

Verhaltensbasierte KI versucht, im Gegensatz zu der traditionellen symbolischen KI, ein System anhand des Verhaltens und der Wahrnehmung zu verstehen, ähnlich wie in der Kybernetik. Das Verhalten von künstlichen, sozialen und biologischen Systemen wird in dieser mathematisch analysiert, modelliert und prognostiziert: Ihre Werkzeuge sind die Theorien der Regulierung sowie der Selbstregulierung. Die Kybernetik versucht, auch das menschliche Denksystem mit ihren Mitteln zu beschreiben und zu analysieren. Diese Methode wird vor allem in den Robotik erfolgreich verwendet (cambrian intelligence). Aus dieser Forschungsrichtung erwuchs eine Sichtweise der Intelligenz ohne Repräsentation: Das Verhalten des Systems wird nur durch das Wissen in der Welt bestimmt. Dieser Sichtweise stimmen momentan nicht alle KI-Forscher zu.

Konnektionismus und KI

Die künstlichen neuronalen Netze (KNN) bzw. der Konnektionismus stellen eine Herausforderung für die Physical Symbol System Hypothesis dar. Das Gebiet, das sich mit KNN befaßt, entstammt ebenfalls aus der Kybernetik. 1961 schrieb Frank Rosenblatt eines der ersten Bücher über KNN. Nach den ersten Erfolgen in der Mustererkennung geriet das Gebiet jedoch in Vergessenheit. Es fehlten die notwendigen neuen Ideen, und KNN erforderten viel Rechenleistung, die damals nicht verfügbar war. Man hatte zu große Versprechungen gemacht und dadurch die Forscher aus anderen Gebieten verärgert, etwa daß künstliche Gehirne in einigen Jahren realisierbar sein würden. Weiterhin erzielten die ersten KI-Programme viel mehr Erfolge auf den damaligen Rechenanlagen. Man sah in dem symbolischen Ansatz eine größere Zukunft als in dem neuronalen Ansatz, da man sich sofort mit Problemen beschäftigte, die nach dem Turing-Test eine Intelligenz erforderten. 1969 veröffentlichten Minsky und Papert ein Buch, in dem sie zeigten, daß ein weitverbreitetes neuronales Modell, das Perzeptron, die logische nicht-oder-Funktion nicht realisieren kann. KNN erlebten seit den 1980er Jahren eine Renaissance, bedingt durch genügende Rechenleistung für Simulationen sowie neue Lernalgorithmen: Sie stellen nun eine echte Herausforderung für die Physical Symbol System Hypothesis dar. Das Wissen kann bei ihnen durch Muster dargestellt werden, die sich selbst und Objekte der physikalischen wirklichen Welt repräsentieren. Da Muster Vektoren entsprechen, folgt eine Metrik, mit der man Ähnlichkeit zwischen verschiedenen Mustern berechnen kann. Inzwischen werden von vielen Forschern die KNN als ein Teilgebiet der KI angesehen. Durch Kombination der ursprünglichen KI-Methoden und der Verwendung von KNN erhofft man sich neue Erkenntnisse über das Lernen und Heuristiken sowie über assoziative Berechnungsmodelle.

Aktueller Stand

Allgemeiner Ansatz in der KI.

Auf der Suche nach Programmen, die das gesamte Spektrum der menschlichen Intelligenz einschließen, präsentierte Marvin Minsky 1985 die Theorie von der Society of Mind. Eine Gesellschaft von Einheiten, die er Agenten nannte, erzeugt durch gemeinsame Zusammenarbeit Intelligenz. Neuerlich bezeichnet man als Agenten komplexe abgeschlossene Programme oder Systeme, die mit der Außenwelt kommunizieren können. Falls mehrere Agenten an einem Problem gemeinsam arbeiten, spricht man von verteilten Agenten. Laut Minsky sollte man sich auf Simulationen konzentrieren, in denen ein allgemeiner Ansatz getestet wird. Ein Beispiel dafür sei die Wissensrepräsentation und Handlungen in der Blockwelt, die alle wichtigen Aspekte der Intelligenz und Kreativität enthält. 

KI als Ingenieurwissenschaft

Die KI kann jedoch auch aus dem Blickwinkel einer Ingenieurwissenschaft betrachtet werden, einer Wissenschaft, deren Ziel es ist, Probleme des täglichen Lebens mit Hilfe intelligenter Methoden zu lösen, z.B. durch Suchstrategien in Datenbanken, durch Spracherkennungs- und Übersetzungsprogramme sowie durch Implementierung automatischer Auskunfts- und Beratungssysteme. Damit eine KI-Anwendung oder KI-Theorie erfolgreich wird, sollte man die fünf Punkte von David Marr (1945-1980) beachten: Problemidentifikation, Entwurf einer geeigneten Darstellung, Berücksichtigung der Einschränkungen, Entwurf von Algorithmen, Überprüfung dieser Algorithmen durch Experimente. 

Inzwischen sind die KI-Techniken weit verbreitet, ohne daß sie auf den ersten Blick als solche erkennbar wären. Beispiele dafür sind objektorientierte Programmiersprachen und graphische Benutzeroberflächen. Spracherkennungssysteme, Übersetzungssysteme sowie „intelligente Spiele“ wie Schach kann man inzwischen auf nahezu allen Computern installieren. Die KI beschäftigt sich weiterhin mit der Suche nach Antworten auf folgende Fragen: Wie kann man Wissen repräsentieren? Wie kann man Suchen beschleunigen? Wie kann man Heuristiken definieren?

Lit.: Görz, G (Hrsg.).: Einführung in die künstliche Intelligenz. Addison-Wesley, 1995. Luger, G.F., Stubblefield, W.A.: Artificial Intelligence, Structures and Strategies for Complex Problem Solving. Addison-Wesley, 1998. Nilsson, N.J.: Artificial Intelligence: A New Synthesis. Morgan Kaufmann, 1998. Russell, S.J., Norvig, P.:Artificial intelligence: a modern approach. Prentice-Hall, 1995. Stork, D.G.: HAL’s Legacy. 2001’s Computer as Dream and Reality. The MIT Press, 1997 (http://mitpress.mit.edu/e-books/Hal/).

Künstliche Intelligenz

1 Der Engländer Charles Babbage (1791-1871) entwarf die erste Maschine (difference engine) zur Berechnung bestimmter Werte polynominaler Funktionen. Leider konnte diese Maschine in der damaligen Zeit nicht realisiert werden, eine funktionstüchtige Kopie wurde nach den damaligen Plänen in unserer heutigen Zeit nachgebaut. Besessen von der Idee, Berechnungsschritte zu mechanisieren, entwarf Babbage das erste Modell eines mechanischen universellen Computers und nannte ihn analytical engine. Währenddessen machte sich seine Mitarbeiterin Lady Ada Lovelance (1815-1852) Gedanken, was so eine Maschine prinzipiell tun könnte. Ihr Einwand, eine solche Maschine könne nur das tun, was ihr gesagt wurde, d.h., sie könne keine eigenen Handlungen initiieren, ist heute noch immer aktuell.

2 In Stanley Kubrick’s (1928-1999) Science-Fiction-Film von 1968, “2001: Odyssee im Weltraum“, wurde ein Computer vorgestellt, der die Ziele der KI veranschaulichte: Er trug den Namen HAL (Abk. von heuristische Algorithmen), erkannte gesprochene Sprache, führte Dialoge, spielte Schach und löste Planungsaufgaben. Dies war die Vorstellung von einem Computer, der den Turing-Test mühelos bestehen konnte. Der eingeschränkte Turing-Test wurde am 11. Mai 1997 durch ein schachspielendes Programm bestanden. Das von IBM entwickelte Programm Deep Blue schlug den Schach-Weltmeist
er Garry Kasparow 3.5-2.5 in sechs Partien.

3 Aristoteles (384-322 v.Chr.) entwickelte eine „Wissenschaft vom Wissen“. In ihr gebrauchte er ein Instrument, mit dem er das Denken untersuchen konnte, nämlich seine eigene Logik. Aristoteles untersuchte, ob gewisse Aussagen wahr sind, indem er ihre Verwandtheit mit anderen wahren Aussagen überprüfte. Z.B. aus den Annahmen, daß alle Menschen sterblich sind und das Sokrates ein Mensch ist, können wir folgern, daß Sokrates sterblich ist. Aristoteles nannte diese Art zu argumentieren einen Syllogismus. Im Jahr 1854 entwickelte George Boole (1815-1864) die Grundlagen der proportionalen Logik, 1879 schlug Gottlieb Frege (1848-1925) eine mathematische Theorie der Repräsentation vor. Er nannte sein Kalkül die Begriffschrift, heute bekannt unter dem Namen Prädikatenlogik erster Stufe. Der Philosoph und Mathematiker Alfred Tarski (1902-1983) führte in den 1930er Jahren die Theorie der Referenz und Wahrheit ein, die auf den Arbeiten von Frege basierte. In ihr repräsentieren Symbole nicht sich selbst, sondern Objekte der physikalischen wirklichen Welt.

Beratung zu diesem Thema erwünscht? Buche hier unten direkt einen Termin mit unseren Experten.

Marketing Strategen Werbeagentur Amberg-Sulzbach
Cookie Consent mit Real Cookie Banner