Technik

Forschende bringen Robotern "menschliches Sehen" bei

Ob im Katastropheneinsatz oder in der Forschung - viele Aufgaben werden heute von Robotern übernommen. Doch für ihren Einsatz müssen sie gut sehen können.

Teilen

Stand

Von Autor/in Frank Wittig

Für Menschen so normal, dass wir gar nicht drüber nachdenken: Visuelle Orientierung. Wir erkennen mühelos, wo wir uns befinden. Für Roboter ist das mit herkömmlichen Kameras und entsprechender Bildbearbeitung ein aufwendiger und energieintensiver Prozess.

Forschende der Technischen Universität Queensland haben jetzt ein neues Roboter-Navigationssystem vorgestellt. Es orientiert sich am menschlichen Sehen und verbraucht nur zehn Prozent der Energie herkömmlicher Systeme.

In diesen grünen Roboter bauten die Forschenden ihr neues Navigationssystem, das von den neuronalen Prozessen im menschlichen Gehirn inspiriert ist.
In diesen grünen Roboter bauten die Forschenden ihr neues Navigationssystem, das von den neuronalen Prozessen im menschlichen Gehirn inspiriert ist.

Spezielle Computerchips orientieren sich am Gehirn

Das von den Forschenden entwickelte Roboterauge LENS konnte Standorte entlang einer acht Kilometer langen Teststrecke erkennen. Dafür brauchte es fast 300-mal weniger Speicherplatz als andere Systeme.

Die Technik orientiert sich daran, wie visuelle Daten im Auge und im Gehirn von Menschen verarbeitet werden. Dafür verwendeten die Forschenden neuromorphe Computerchips. Anders als klassische Computerchips werden sie auf ganz bestimmte Aufgaben zugeschnitten, erklärt Professor Paul Lukowicz vom Deutschen Forschungszentrum für künstliche Intelligenz an der Universität Kaiserslautern:

"Das bedeutet, dass sie diese sehr spezielle Aufgabe sehr viel preisgünstiger und effizienter ausführen können als alles andere. Sie können aber auch nichts anderes. Der Grund, weshalb wir das als neuromorph bezeichnen, ist, dass uns klar ist, dass das wahrscheinlich eher der Mechanismus ist, den unsere Neuronen im Gehirn verwenden."

Illustration von der Verbindung von menschlichen Augen und Gehirn zum Sehen und Verarbeiten von Bildern.
Um ihrem Roboter das Sehen beizubringen, orientierten sich die Forschenden daran, wie visuelle Daten im Auge und im Gehirn von Menschen verarbeitet werden.

Wie bei manchen modernen Computerchips sind auch auf dem neuromorphen Chip Rechenwerk und Speicher vereint. Das spart den energie- und zeitintensiven Datentransport zwischen Prozessor und Speicher.

Roboter hat keine herkömmliche Kamera

Neben dem neuromorphen Chip gibt es noch ein weiteres, von der Biologie inspiriertes Modul: Die Event-Kamera. Anders als übliche Kameras nimmt sie nicht die ganze Szenerie in jedem Detail immer wieder Bild für Bild auf. Sie erfasst nur die Veränderungen gegenüber dem vorherigen Bild. Das erinnert an die Kompression von Bilddaten mit dem Verfahren jpeg und reduziert die Datenlast dramatisch. Auch das menschliche Gehirn arbeitet bei der Verarbeitung von Bildern datenreduziert.

KI-Experte sieht großes Potential

Paul Lukowicz vom Deutschen Forschungszentrum für künstliche Intelligenz sieht hier eine Leistung, die ein Ziel für das gesamte Forschungsgebiet der KI sein sollte: "Durch diese Kombination von zwei verschiedenen Dingen habe ich die Möglichkeit, diesen extrem geringen Energieverbrauch zu realisieren."

Zumindest für das Roboterauge LENS haben die australischen Forschenden gezeigt, dass dieses lohnende Ziel auch erreichbar ist.

Künstliche Intelligenz Roboter in Menschengestalt – Neue Begleiter für unseren Alltag

Die rasante Entwicklung der künstlichen Intelligenz ermöglicht humanoide Roboter, die sich mit uns unterhalten können, lern- und anpassungsfähig sind.

Das Wissen SWR Kultur

Fakt ab! Eine Woche Wissenschaft Next Step zu Terminator: Roboter mit menschlicher Haut

Diese Woche mit Julia Nestlen und Aeneas Rooch.

Ihre Themen sind:
- Nilpferde können nicht schwimmen, aber ein bisschen fliegen (00:32)
- Künstliche Intelligenz so witzig wie Menschen (06:42)
- Wie lässt sich menschliche Haut an Robotern befestigen? (14:34)
- Tiere, die wie Menschen klingen (22:18)

Weitere Infos und Studien gibt’s hier:
Nilpferde können nicht schwimmen, dafür ein bisschen fliegen:
https://peerj.com/articles/17675/
Künstliche Intelligenz so lustig wie Menschen:
https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0305364
Menschliche Haut für Roboter:
https://www.cell.com/cell-reports-physical-science/fulltext/S2666-3864(24)00335-7
Kleiner optischer Eindruck: https://www.tiktok.com/@solidscience/video/7386332255918066977?_r=1&_t=8cpnxMxWegU
Tiere versuchen menschliche Sprache nachzuahmen:
https://www.iflscience.com/from-orcas-to-ducks-the-surprising-animals-that-can-mimic-human-speech-74930
https://www.ndr.de/nachrichten/schleswig-holstein/Warum-Amseln-in-Kiel-Geraeusche-von-E-Rollern-nachmachen-und-wie-das-klingt,amseln100.html

Unser Podcast-Tipp der Woche:
nicht witzig – Humor ist, wenn die anderen Lachen
https://www.ardaudiothek.de/sendung/nicht-witzig-humor-ist-wenn-die-anderen-lachen/12662427/

Habt ihr auch Nerd-Facts und schlechte Witze für uns?
Schreibt uns bei WhatsApp oder schickt eine Sprachnachricht: 0174/4321508
Oder per E-Mail: faktab@swr2.de
Oder direkt auf http://swr.li/faktab

Instagram:
@charlotte.grieser
@julianistin
@sinologin
@aeneasrooch

Redaktion: Martin Gramlich und Chris Eckardt
Idee: Christoph König