В своем исследовании команда специалистов из Apple представила новую ИИ-систему под названием Reference Resolution As Language Modeling (ReALM), которая, по их утверждению, показала более высокую эффективность в решении ряда задач по сравнению с GPT-4.
В опубликованной статье на arXiv разработчики Apple описали ReALM как LLM (Large Language Model), способную предоставлять более точные ответы на запросы пользователей, учитывая информацию с экрана устройства, контекст и текущие задачи.
По мнению специалистов, ReALM не только обрабатывает текст, но и способна "читать" экран, что позволяет ИИ лучше понимать намерения пользователя и предоставлять соответствующую информацию.
Проведенные тесты показали, что ReALM превосходит GPT-4 и другие LLM в определенных типах задач.
Apple планирует интегрировать ReALM в свои устройства, что улучшит работу Siri, обеспечивая более точные и релевантные ответы на запросы пользователей. Ожидается, что данная функция станет доступна для пользователей iPhone и iPad после обновления до iOS 18.