Привіт! ��
Як твої справи? Ось вже й середина тижня ��
Meta щойно представили Segment Anything Model 2 (SAM 2), модель ШІ, яка може ідентифікувати та відстежувати об'єкти в кадрах відео в режимі реального часу, що є значним прогресом у обробці відео за допомогою ШІ.
Що відомо?
- SAM 2 покращує попередні можливості Meta з сегментації зображень на відео, вирішуючи такі проблеми, як швидкий рух та оклюзія об'єктів.
- Модель може сегментувати будь-який об'єкт у відео та створювати вирізки за кілька кліків, а безкоштовна демоверсія доступна за посиланням.
- Meta також робить код моделі відкритим та випускає велику анотовану базу даних із 50 000 відео, використаних для навчання.
- Серед потенційних способів застосування: редагування відео, змішана реальність та наукові дослідження.
Чому це важливо?
Здатність SAM 2 відстежувати об'єкти в режимі реального часу може зробити складні завдання з редагування відео, такі як видалення або заміна об'єктів, простими в один клік. Llama 3.1 минулого тижня і тепер SAM 2, Meta продовжує свою стратегію розробки масштабних продуктів у ШІ — роблячи все відкритим і безкоштовним для використання. (за що ми вдячні, хоча й не можемо запустити все це локально, поки що ��)