Причины и другие детали не уточняются
В официальном аккаунте Sora в соцсети X появилось сообщение о закрытии приложения Sora app, которое позволяло генерировать видеоролики со звуком по их текстовому описанию. Причины, ровно как и любые другие детали, не уточняются, но в посте команда Sora поблагодарила пользователей и сообщила, что более подробная информация о сроках работы приложения, доступе через API и способах сохранить сгенерированный контент появится позднее.
Впервые OpenAI представила генеративную модель для создания видеороликов по текстовыми описаниям в феврале 2024 года. Она позволяла создавать видео высокого качества с малым количеством артефактов, разрешением до 1920 × 1080 и продолжительностью до одной минуты. Обновленная, вторая версия, релиз которой состоялся в сентябре 2025 года, позволяла создавать видео уже вместе со звуком, включая диалоги. Помимо собственного сайта, у проекта появились приложения для iOS и Android, которые позволяли видеть контент, сгенерированный другими пользователями, и использовать его для создания собственных видеороликов. На момент закрытия приложение проработало всего около шести месяцев.
Он позволяет управлять компьютером
Исследователи из Reality Labs, исследовательского подразделения компании Meta*, разработали неинвазивный нейромышечный интерфейс в формате браслета, который декодирует электрические сигналы мышц на запястье и позволяет с их помощью управлять компьютером. Устройство способно распознавать отдельные жесты пальцев руки и отклонения кисти. С его помощью пользователи управляли курсором и вводили рукописный текст со скоростью до двадцати одного слова в минуту. В основе системы лежат универсальные нейросетевые модели, натренированные на большом массиве данных, полученных от нескольких тысяч добровольцев — это позволяет новым пользователям использовать браслет без долгой предварительной калибровки. Статья опубликована в журнале Nature.