Российские ученые ускорили работу ИИ с длинным текстом

МOСКВA, 16 aвг – РИA Нoвoсти. Рoссийскиe учeныe с лaбoрaтoрии исслeдoвaний искусствeннoгo интeллeктa (ИИ) T-Bank AI Research рaзрaбoтaли нeйрoсeть ReBased (РeБeйзд) к ускoрeннoй oбрaбoтки длинныx тeкстoв, сooбщaeт компанийка.В основе открытия лежит новая зодчество языковых моделей, названная ReBased. Зодчество в глубоком обучении — это избитый план или структура, по части которой строится нейронная путы. Она определяет, какие типы слоев будут использованы (как например, сверточные, рекуррентные или полносвязные) и (языко эти слои будут соединены промеж (себя) собой. Продуманная архитектура позволяет нейросети полегче решать определенные задачи, примерно сказать распознавать изображения или уразумевать текст. Выбор подходящей архитектуры важен в (видах эффективности и точности работы модели, говорится в сообщении.Проведя обсуждение архитектуры Based (Бейзд), представленной учеными Стэнфорда в декабре 2023 возраст, российские ученые оптимизировали конструкция извлечения информации из текста, добавив новые обучаемые формат, которые отвечают за оптимизированный поиск взаимосвязей между частями текста. Сие позволяет улучшить процесс его обработки и выколачивать более точные ответы.Ученые да упростили алгоритм выделения текстовой информации, яко привело к увеличению производительности, повышению качества работы с длинными текстами и улучшению контекстного обучения. В среднем оценка взаимосвязей в тексте в новой архитектуре из чего следует лучше как минимум в 10%, отметили эксперты.ReBased способна убавить издержки на использование искусственного интеллекта про специализированных задач, которые имеют конкретную отрасль применения и требуют учета ее особенностей. Как например, в медицине такой задачей может сводить счеты классификация текстов на основе симптомов и диагнозов.Новая конфигурация, предложенная учеными, позволяет приблизить пошив линейных моделей к трансформерам. Модели, в основе которых лежит ReBased, могут рождать тексты с более низкими требованиями к ресурсам на поверку без потери качества.Ученые проводили эксперименты получи и распишись датасете MQAR (Multi-Query Associative Recall – сочетательный вызов с несколькими запросами), какой-никакой позволяет определять способность модели к контекстуальному обучению, а то-то и есть к ассоциативному запоминанию (запоминанию малограмотный связанных пар объектов), так: лицо человека — его псевдоним.»Примечательно, что параллельно с выходом нашей статьи (товарищей) исследователей из Стэнфорда выпустила книга на эту же тему, же с другим подходом к решению. Теперь это одна из в наибольшей степени интересных областей исследований в NLP согласно всему миру: трансформеры чрезвычайно медленные, но линейные модели уступают им числом качеству. И мы, и ученые изо Стэнфорда занимаемся поиском оптимальных архитектур. Да мы с тобой ценим их вклад в воспитание технологий и рады возможности соучаствовать в научном диалоге такого уровня», – приводятся в сообщении тары-бары исследователя обработки естественного языка в T-Bank AI Research Ярослава Аксенова.

Комментирование и размещение ссылок запрещено.

Комментарии закрыты.