Können wir als Mensch bestimmte Bereiche aus physikalisch/technischen Gründen nicht erreichen (gesundheitliche Risiken, physikalische Randbedingungen, etc.), werden häufig ferngesteuerte Systeme eingesetzt (z.B. Offshore Industrie). Der Mensch als Operator bedient diese Roboter oftmals ausschließlich basierend auf Videodaten. Diese Einsatzweise entspricht dem menschlichen Handeln – wir sehen etwas und agieren entsprechend, basierend auf unserer Bewertung der Situation und der getroffenen Entscheidung. Zwingend hierfür ist eine gute Datenverbindung zwischen dem Operator und dem Roboter. Kann diese Datenverbindung nicht ermöglicht werden oder ist diese nicht gewollt (z.B. ein Kabel ist hinderlich, zu große Distanz), dann werden autonome Systeme eingesetzt. Diese automatisierten Roboter arbeiten völlig autark, jedoch mit sehr eingeschränktem Handlungsspielraum. Der Grund hierfür liegt in deren fehlenden Intelligenz.
Der Mensch trifft täglich tausende von Entscheidungen, von einfachen bis zu hochkomplexen. Wir bauen dabei auf unsere Sinne (Sehen, Fühlen, Hören …) aber auch auf unsere Erfahrungen. Diese komplexe Handlungsweise ist noch lange nicht auf autonome Systeme übertragbar, dennoch erfordern die wissenschaftlichen Herausforderungen verstärkt deutlich leistungsfähigere autonome Systeme, die auch in schwierigen Situation oder riskanten Einsatzbereichen eingesetzt werden können (z.B. unwegsames Terrain, unter dem Eis, dunkle Seite des Mondes). Diese Herausforderung gilt sowohl für Weltraum- auch für Tiefsee-Anwendungen.
Das Arbeitspacket 3100 hat das Ziel, die Leistungsfähigkeit autonomer Systeme durch Einsatz neuer Technologie zu verbessern. Ein gutes Beispiel hierfür ist die Einbindung der Technik SLAM (Simultaneous Localization and Mapping). Im Gegensatz zu einer üblichen Wegpunktnavigation von Punkt A nach B nach C (ausgehend von einem direkten Pfad zum Punkt B und weiter zu C) wird das automatisierte SLAM-System in ein unbekanntes Terrain gesteuert, es erfasst kontinuierlich seine Position und seine Umgebung. Es bewegt sich vorwärts und baut dabei eine Karte seiner Umgebung auf, Hindernisse werden erkannt und umfahren – das System hat deutlich mehr Autonomie, da es nicht auf dem direkten, vorbestimmten Weg zu B und C gehen muss. Je länger es unterwegs ist, umso umfassender ist die Karte. Diese wird dann für Entscheidungsfindungen herangezogen (z.B. optimale Route für den Rückweg, Umgehung von Hindernisse oder Abhängen).
So überzeugend die Technik ist, so schwierig ist deren Umsetzung, da unterschiedliche Rahmenbedingungen und Fahrzeugklassen sich massiv auf die genutzte Technologie auswirken. Eine kamerabasierte Erfassung des Terrains funktioniert hervorragend auf dem Mond (keine Beeinträchtigung der Sichtverhältnisse durch fehlende Atmosphäre), kann jedoch in dem schwebstoffbehafteten Wasser der Tiefsee zum Totalausfall führen. Ebenso kann ein Radfahrzeug auf dem Boden problemlos anhalten, wenn Hindernisse im Weg sind, seine Lage analysieren und den besten Weg finden. Ein in der Wassersäule fahrendes, torpedoförmiges AUV (Autonomous Underwater Vehicle) kann nicht anhalten, es würde sofort aufsteigen, da es Auftrieb besitzt. Im WP 3100 sollen deshalb diverse Techniken auf unterschiedlichen autonomen Systemen zum Einsatz kommen (z.B. Crawler, Rover, AUVs).