GPT-3 научили искать ответы в интернете и подкреплять их ссылками на источники

Разработчики из OpenAI научили нейросеть GPT-3 отвечать на вопросы так, как это часто делают люди: спрашивая у поисковика, собирая информацию из нескольких источников и давая в итоговом тексте ссылки на них. Исследование показало, что ответы такой нейросети нравятся людям больше, чем лучшие ответы на те же вопросы на Reddit.

Краткое описание и интерактивные примеры опубликованы на сайте OpenAI, там же доступна статья с подробностями обучения и тестирования.

В 2017 году исследователи из Google ""представили":https://arxiv.org/…06.03762.pdf архитектуру нейросетей, которую назвали трансформером. Ее ключевой особенностью стала реализация механизма внимания, позволяющая нейросети учитывать все слова в даваемом ей предложении и понимать их важность.

Затем исследователи из OpenAI создали на ее основе нейросеть GPT и два ее преемника (GPT-2 и GPT-3), последний из которых научился генерировать тексты, которые часто сложно отличить от написанных человеком.

Как и в случае с дипфейками, это вызвало в научном сообществе дискуссии о том, какие опасности несет в себе такая технология. В частности, из-за особенностей работы генеративные нейросети могут создавать правдоподобный, но ложный с точки зрения фактов текст.

Исследователи из OpenAI решили сделать GPT-3 более «прозрачной» и научили ее не только генерировать ответы, но и приводить ссылки на источники.

Подробнее
Пожалуйста, оцените статью:
Ваша оценка: None Средняя: 5 (1 vote)
Источник(и):

N+1