Lyu a également fait une démonstration du mode Teach du R1, qui vous permet de pointer la caméra du R1 vers un écran d'ordinateur pendant que vous lui indiquez comment accomplir une tâche. Une fois qu'il a appris, vous pouvez lui demander d'effectuer ladite tâche pour vous épargner du temps et des tracas. Cependant, cette fonctionnalité n'est pas encore disponible, et lorsqu'elle le sera, Rabbit dit qu'elle commencera avec une petite sélection d'utilisateurs pour la tester en version bêta.
Mais l'objectif de la R1 est plus ou moins de remplacez vos applications. Au lieu de rechercher une icône, appuyez simplement sur le bouton et demandez au R1 de gérer quelque chose.
À CESil semblait que vous pouviez accéder plusieurs applications tierces via le R1 au lancement, mais pour le moment, il n'existe que quatre services : Uber, DoorDash, Midjourney et Spotify.
Vous vous y connectez via le portail Web Rabbit Hole, ce qui signifie que oui, vous vous connectez à ces services via ce qui semble être un machine virtuelle hébergée par Rabbit, en remettant vos informations d'identification, puis vous pouvez demander au R1 d'appeler un Uber, de commander un McDonald's, de générer une image ou de jouer une chanson. Il utilise les interfaces de programmation d'application (API) de ces services pour effectuer ces tâches, et le R1 a été pré-entraîné pour les utiliser.
Lyu promet naturellement qu’il y a bien d’autres choses à venir, bien sûr. En été, on nous dit d'attendre un réveil, un calendrier, des contacts, un GPS, un rappel de mémoire, une planification de voyage et d'autres fonctionnalités. Des intégrations Amazon Music et Apple Music sont actuellement en développement, et plus tard, nous devrions voir davantage d'intégrations de services tiers, notamment Airbnb, Lyft et OpenTable.
Vous vous demandez peut-être : « Attendez une minute, ça ressemble à un téléphone », et vous… ne vous tromperez pas.
Comme nous l'avons vu avec le système maladroit et limité Ai humain Badge, un smartphone peut effectuer toutes ces tâches mieux, plus rapidement et avec des interactions plus riches. C'est là que vous devez commencer à examiner attentivement la vision globale de Rabbit.
L’idée est de parler puis de calculer. Pas besoin d'applications : l'ordinateur comprendra simplement. Nous en sommes encore loin, mais lors de l'événement de lancement, Rabbit a présenté un appareil portable qui comprendrait ce que vous pointez du doigt.
Lyu a suggéré que ce portable pourrait comprendre que vous pointiez du doigt un Thermostat Nest et demander de baisser la température, sans avoir à prononcer les mots « Nest » ou « thermostat ». L'image du portable censé tout voir était floue, nous n'avons donc pas beaucoup d'informations sur lesquelles continuer.
Lyu a mentionné les interfaces utilisateur génératives, où un utilisateur pourra avoir un interface de leur choix– des boutons sur un écran placés là où vous le souhaitez et à la taille d'affichage parfaite – et a ensuite affirmé que Rabbit travaillait sur un système d'exploitation de bureau natif d'IA appelé Rabbit OS. Encore une fois, nous n'avons pas beaucoup de détails, mais mon esprit s'est immédiatement tourné vers Théo dans Son installer OS1 sur son PC.
Un système d’exploitation qui place un assistant vocal personnel au premier plan. Qu'est-ce qui peut mal se passer ?