Google und Boston Dynamics integrieren Gemini AI in den Spot-Roboter und ermöglichen natürlichsprachliche Steuerung, Objekterkennung und Aufgabenausführung, wodurch die adaptive Robotik vorangetrieben wirdGoogle und Boston Dynamics integrieren Gemini AI in den Spot-Roboter und ermöglichen natürlichsprachliche Steuerung, Objekterkennung und Aufgabenausführung, wodurch die adaptive Robotik vorangetrieben wird

Google und Boston Dynamics integrieren Gemini Robotics-Modelle in Spot für erweiterte Wahrnehmung und Aufgabenausführung

2026/04/16 22:41
3 Min. Lesezeit
Bei Feedback oder Anliegen zu diesem Inhalt kontaktieren Sie uns bitte unter crypto.news@mexc.com
Google und Boston Dynamics integrieren Gemini Robotics-Modelle in Spot für erweiterte Wahrnehmung und Aufgabenausführung

Das Technologieunternehmen Google kündigte eine Partnerschaft mit Boston Dynamics an, um seine Gemini Robotics verkörperten Argumentationsmodelle in den vierbeinigen Roboter Spot zu integrieren, was einen Fortschritt bei der Anwendung künstlicher Intelligenz auf reale Robotik markiert. Die Zusammenarbeit ermöglicht es dem Roboter, seine Umgebung besser zu interpretieren, Objekte zu identifizieren und Aufgaben auf Grundlage natürlichsprachlicher Anweisungen auszuführen, anstatt sich ausschließlich auf vorprogrammierte Routinen zu verlassen.

Die Integration basiert auf experimenteller Arbeit, die während eines internen Hackathons im Jahr 2025 durchgeführt wurde, bei dem Entwickler untersuchten, wie große Sprachmodelle und visuelle Argumentationssysteme die Autonomie von Spot verbessern könnten. Durch die Nutzung von Gemini Robotics kann der Roboter visuelle Eingaben von seinen Kameras verarbeiten und übergeordnete Anweisungen – wie das Organisieren von Objekten in einem Raum – in koordinierte physische Aktionen übersetzen.

Im Gegensatz zur traditionellen Roboterprogrammierung, die oft von starrer, schrittweiser Logik abhängt, führt das System eine flexiblere Schnittstelle ein, die auf konversationellen Eingabeaufforderungen basiert. Entwickler erstellten eine zwischengeschaltete Softwareschicht unter Verwendung des Software Development Kits von Spot, die es den Gemini-Modellen ermöglicht, mit der Programmierschnittstelle des Roboters zu kommunizieren. Dieses Framework ermöglicht es der KI, aus einem definierten Satz von Aktionen auszuwählen, darunter Navigation, Objekterkennung, Bilderfassung, Greifen und Platzieren.

Natürlichsprachliche Schnittstellen formen die robotische Aufgabenausführung neu

In praktischen Demonstrationen zeigte das System die Fähigkeit, allgemeine Anweisungen zu interpretieren und sich an dynamische Umgebungen anzupassen. Wenn beispielsweise die Aufgabe darin bestand, Gegenstände zu organisieren, analysierte das KI-Modell visuelle Daten, identifizierte relevante Objekte und leitete den Roboter durch eine Abfolge von Aktionen. Rückmeldungen vom Roboter – wie Aufgabenabschluss oder physische Einschränkungen – wurden in Echtzeit einbezogen, sodass das System sein Verhalten ohne manuelle Eingriffe anpassen konnte.

Der Ansatz wahrt betriebliche Grenzen, indem die KI auf vordefinierte Fähigkeiten innerhalb der API des Roboters beschränkt wird, was eine vorhersehbare und kontrollierte Leistung gewährleistet. Dieses Design bringt Anpassungsfähigkeit mit Sicherheit in Einklang, eine wichtige Überlegung für den Einsatz von KI in physischen Systemen.

Die Partnerschaft hebt auch potenzielle Effizienzgewinne für Entwickler hervor. Durch die Reduzierung des Bedarfs an umfangreicher manueller Codierung ermöglichen natürlichsprachliche Schnittstellen Ingenieuren, sich auf die Definition von Zielen zu konzentrieren, anstatt jede Aktionssequenz zu programmieren. Diese Verlagerung könnte die Entwicklung von Roboteranwendungen in Branchen wie Fertigung, Inspektion und Logistik beschleunigen.

Obwohl die Implementierung experimentell bleibt, spiegelt die Demonstration breitere Trends in der physischen KI wider, bei denen grundlegende Modelle zunehmend zur Verbesserung der Maschinenwahrnehmung und Entscheidungsfindung eingesetzt werden. Beide Unternehmen haben angegeben, dass weitere Entwicklungen im Gange sind, einschließlich der fortgesetzten Integration von Gemini-basierten Systemen in Robotikplattformen.

Die Zusammenarbeit deutet auf einen Übergang zu intuitiverer Mensch-Maschine-Interaktion hin, bei der komplexes robotisches Verhalten durch vereinfachte Eingaben gesteuert werden kann. Während sich KI-Modelle weiterentwickeln, könnten solche Integrationen den funktionalen Umfang autonomer Systeme erweitern und gleichzeitig die technischen Barrieren für deren Einsatz reduzieren.

Der Beitrag Google und Boston Dynamics integrieren Gemini Robotics-Modelle in Spot für erweiterte Wahrnehmung und Aufgabenausführung erschien zuerst auf Metaverse Post.

Haftungsausschluss: Die auf dieser Website veröffentlichten Artikel stammen von öffentlichen Plattformen und dienen ausschließlich zu Informationszwecken. Sie spiegeln nicht unbedingt die Ansichten von MEXC wider. Alle Rechte verbleiben bei den ursprünglichen Autoren. Sollten Sie der Meinung sein, dass Inhalte die Rechte Dritter verletzen, wenden Sie sich bitte an crypto.news@mexc.com um die Inhalte entfernen zu lassen. MEXC übernimmt keine Garantie für die Richtigkeit, Vollständigkeit oder Aktualität der Inhalte und ist nicht verantwortlich für Maßnahmen, die aufgrund der bereitgestellten Informationen ergriffen werden. Die Inhalte stellen keine finanzielle, rechtliche oder sonstige professionelle Beratung dar und sind auch nicht als Empfehlung oder Billigung von MEXC zu verstehen.

USD1 Genesis: 0 Fees + 12% APR

USD1 Genesis: 0 Fees + 12% APRUSD1 Genesis: 0 Fees + 12% APR

New users: stake for up to 600% APR. Limited time!