pajarito times

Rabbit r1 es un adorable asistente impulsado por IA, una experiencia post-SmartPhones

Rabbit r1 una experiencia post-smartphone

Rabbit, con sede en Santa Mónica, presentó el r1, un pequeño dispositivo personal de inteligencia artificial que opera múltiples aplicaciones en nombre del usuario para hacer las cosas.

El dispositivo, cuyo diseño es cortesía de la ecléctica firma tecnológica sueca Teenage Engineering, tiene el tamaño de una pila de notas Post-it y cabe fácilmente en un bolsillo.

Utiliza un modelo de lenguaje grande (LLM – Large Language Model ), cortesía de OpenAI, para comprender las solicitudes habladas del usuario. Pero la idea de Rabbit es ir mucho más allá de la producción generativa de los LLM y avanzar hacia una IA más activa y agente.

El ingrediente especial de la startup es su software, concretamente un modelo de IA patentado llamado Large Action Model (LAM) que aprende a operar las aplicaciones del usuario en su nombre.

Por ejemplo, un usuario podría decirle a r1: «Tráeme un Uber a la oficina, elige música animada para el viaje y notifica al equipo que llegaré un poco tarde». Luego, el LAM interactúa con las aplicaciones relevantes para cumplir con la solicitud.

Rabbit r1

Las capacidades de coordinación de aplicaciones de LAM, en teoría, crean una especie de experiencia post-teléfono inteligente. «Hemos llegado a un punto en el que tenemos cientos de aplicaciones en nuestros teléfonos inteligentes con diseños de UX complicados que no se comunican entre sí», dice el fundador y director ejecutivo de Rabbit, Jesse Lyu. «Como resultado, los usuarios finales se sienten frustrados con sus dispositivos y, a menudo, se pierden».

Inicialmente, el modelo se entrenó observando miles de sesiones de usuarios grabadas con una variedad de aplicaciones. El usuario puede otorgar acceso al asistente de Rabbit a sus aplicaciones proporcionando las credenciales de la aplicación en una página de configuración en su computadora portátil o de escritorio.

Lyu dice que Rabbit podría haber elegido conectarse con varias aplicaciones pagando por una interfaz de programación de aplicaciones. Pero, afirma, la funcionalidad de la aplicación disponible a través de la API suele ser limitada, y aumentar el conjunto de funciones de la API no suele estar entre las principales prioridades de los fabricantes de aplicaciones.

Esa es una de las razones por las que Rabbit decidió acceder a las aplicaciones del usuario entrando por la puerta principal utilizando las credenciales del usuario. En teoría, el modelo LAM podría aprender a hacer casi todo lo que el usuario puede hacer con una aplicación.

Rabbit r1 – Jesse Lyu

Después de todo, Rabbit propone que los usuarios comiencen a enviar un agente proxy de IA para usar sus aplicaciones. Y no es probable que ese proxy vea anuncios ni se deje persuadir para realizar compras dentro de la aplicación.

Lyu dice que no cree que los propietarios de aplicaciones se quejen porque el servicio que venden todavía se utiliza, pero se accede a él de una manera diferente.

A finales de este año, los usuarios podrán utilizar un «modo de enseñanza», que les permitirá entrenar directamente el modelo LAM para utilizar sus aplicaciones preferidas. Utilizando un portal web llamado “rabbit hole”, el usuario puede enseñar el modelo demostrando cómo usa sus aplicaciones.

El modelo «puede inferir y modelar acciones humanas en interfaces de computadora aprendiendo la intención y el comportamiento de los usuarios cuando usan aplicaciones específicas, y luego imitarlas y realizarlas de manera confiable y rápida», explica Rabbit en un comunicado de prensa. Por ejemplo, un usuario podría enseñarle a una aplicación de edición de vídeo a eliminar marcas de agua de las fotos.

Rabbit r1

Por supuesto, la prueba está en el pudín. Los ex ejecutivos de Apple, Imran Chaudhri y Bethany Bongiorno, generaron mucho revuelo con su startup Humane y su dispositivo para colgar en la solapa, el Ai Pin. Pero en el lanzamiento real del producto quedó claro que la capacidad de Pin para integrarse con aplicaciones de manera útil era algo limitada. OpenAI actualmente permite a los usuarios de ChatGPT controlar algunas aplicaciones mediante el uso de «complementos» de aplicaciones. También se dice que la compañía está trabajando con el ex gurú del diseño de Apple, Jony Ive, en un dispositivo personal de inteligencia artificial.

Cuando realmente tengamos un r1, veremos de cerca lo fácil que es configurarlo, la variedad de aplicaciones que LAM ya sabe cómo usar, la flexibilidad o rigidez con la que se pueden invocar nuevas acciones de múltiples aplicaciones. y la facilidad con la que se puede entrenar el modelo en nuevas aplicaciones o flujos de trabajo.

Rabbit dice que eligió la forma y las características del r1 para que pueda activar las tareas del usuario más rápido que un teléfono inteligente avanzado.

Rabbit r1: especificaciones y precio

El dispositivo portátil pesa 115 gramos y tiene aproximadamente el tamaño de una sola pila de notas Post-it. Tiene una pantalla táctil de 2,88 pulgadas: una rueda de desplazamiento navega a través de «tarjetas» que brindan información textual sobre las tareas realizadas por la IA.

Una cámara giratoria puede realizar tareas de visión por computadora (por ejemplo, “¿Cuáles son los ingredientes de este alimento?”) y es capaz de realizar videollamadas. Tiene conectividad Wi-Fi y celular, un procesador MediaTek, 4 GB de memoria, 128 GB de almacenamiento, un puerto USB-C y una ranura para tarjeta SIM. Su batería durará todo el día, dice Rabbit.

El nuevo dispositivo r1 costará 199 dólares y será lanzado en Semana Santa, dice Lyu.

Veamos «Lo bueno, lo malo y lo feo».

El bueno:

? Haga las cosas más rápido
? Menos distracciones
? Creación de un modelo de acción grande
? Diseño de ingeniería adolescente
? Permite entrenamiento personal para uso personalizado
? Respuesta más rápida que otros proyectos de IA de voz
? Precio de $199 sin suscripción

El malo:

? Tener que hablarle continuamente
? Es posible que muchas personas no quieran llevar su teléfono y el Rabbit r1 en sus bolsillos.
? En la conferencia magistral, no mostraron la pantalla cuando realizaban tareas complejas juntos, por ejemplo, reservar un viaje, un hotel o un automóvil.
? Algunas cosas no se abordan, por ejemplo, qué LLM está utilizando, capacidades, ¿solo una voz?, ¿qué pasa con la comunicación?, GPS, ¿toma video?, etc.

El feo:

? Si empresas como Apple integran adecuadamente la IA en sus dispositivos, es posible que puedan realizar todo lo que se muestra en la Keynote. Además, ya tienen una enorme base de usuarios, por lo que es arriesgado. ¿Quizás Apple adquiera Rabbit?
? Después de todo, es una demostración donde todo funciona perfecto. Pero, ¿funcionará tan bien en la realidad? ¿Entenderá el acento de las personas? ¿Realizará bien las tareas?

Personalmente disfruté la conferencia magistral y veo un mercado para ella. Con solo mirar algunas de las respuestas de ayer, hay usuarios que desean un dispositivo de uso único con menos distracciones, un dispositivo para sus hijos, un artículo de colección o simplemente un nuevo dispositivo para jugar.

Estoy emocionado de conseguir el mío y también de ver versiones futuras del mismo.

Salir de la versión móvil