На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Газета.ру

8 657 подписчиков

Свежие комментарии

  • Betahon
    Ничего удивительного: как может один иноагент уволить другого иноагента?!...Продюсер Бабичев:...
  • Константин Самарин
    И правильно! Противно видеть га российских пляжах жлобов, использующих уворованные в зарубежных отелях полотенца и ха...Юрист Адамс заяви...
  • Ильдус Зубаиров
    Корабли сейчас очень хорошие цели для сверхзвуковыми ракет России, да и стоят они гораздо меньше кораблей НАТО. А у н...Депутат ГД Ивлев ...

Российские ученые ускорили обработку длинных текстов новой нейросетью

Ученые из лаборатории исследований искусственного интеллекта (ИИ) T-Bank AI Research создали нейросеть ReBased, способную ускорить обработку длинных текстов и сократить расходы на использование ИИ без потери качества, сообщает Т-Банк.

По заявлениям ученых, разработка позволит шире применять языковые модели в бизнесе.

Также открытие поможет компаниям уменьшить негативное влияние на окружающую среду и сократить выбросы парниковых газов за счет снижения потребления энергии.

Нейросеть ReBased представляет собой новую архитектуру языковых моделей. Ученые отмечают, что выбор подходящей архитектуры, как и в проекте здания, важен для эффективности и точности работы модели.

За основу ученые из T-Bank Research взяли модель Based, представленную в Стэнфорде в декабре 2023 года. Специалисты оптимизировали механизм извлечения информации из текста и добавили новые обучаемые параметры, отвечающие за оптимальный поиск взаимосвязей в тексте.

Также ученые упростили алгоритм выделения текстовой информации, увеличив производительность. В среднем понимание взаимосвязей у ReBased улучшилось на 10%.

В ходе тестов ученые экспериментировали на датасете MQAR (Multi-Query Associative Recall), который позволяет определять способность модели к контекстуальному обучению (ассоциативному запоминанию).

Как отметил исследователь обработки естественного языка в T-Bank Research Ярослав Аксенов, одновременно с открытием российских специалистов исследователи из Стэнфорда выпустили исследование на ту же тему, но с другим подходом к решению.

"Сейчас это одна из наиболее интересных областей исследований в NLP по всему миру: языковые модели "Трансформер" слишком медленные, но линейные модели уступают им по качеству", - рассказал он.

 

Ссылка на первоисточник
наверх