Apple ha estado en silencio mientras otras compañías como Google, Microsoft y Meta avanzaban con herramientas de inteligencia artificial como ChatGPT. Pero ahora, los investigadores de Apple están trabajando en un nuevo modelo que podría llevar a Siri a nuevas alturas.
Este modelo, llamado ReALM (Resolución de referencia como modelado de lenguaje), aborda un desafío importante: comprender el contexto en conversaciones y referencias en pantalla. Según los investigadores, ReALM supera a otros modelos de lenguaje, como GPT-3.5 y GPT-4, en todas las pruebas de contexto.
Entonces, ¿qué significa esto para Siri?
- Contexto en pantalla: ReALM puede entender texto en capturas de pantalla, como direcciones o detalles de cuentas bancarias, lo que podría hacer que Siri sea aún más útil para los usuarios de Apple.
- Comprensión conversacional y de fondo: Entrenado con datos como listas de empresas, ReALM puede entender indicaciones como «llame a la de abajo», incluso si no está explícitamente mencionado en el mensaje.
- En el dispositivo: A diferencia de otros modelos que dependen de la nube, ReALM está diseñado para ejecutarse completamente en el dispositivo, lo que podría ser un gran avance en términos de privacidad y eficiencia.
Aunque Apple ha mantenido sus planes en secreto, el CEO Tim Cook sugirió un importante anuncio de IA más adelante este año, por lo que todos esperan con ansias la Conferencia Mundial de Desarrolladores de Apple en junio.
¡Estén atentos para más novedades sobre Siri y la inteligencia artificial de Apple!