Идея для первого выпуска подкаста назрела довольно давно. Но на сегодня появился дополнительный повод поговорить о скорости работы нейросетей и интернета. И это новая технология, которую представила компания OpenAI с ее продуктом Deep Research, который сейчас доступен для про-юзеров. Кстати, буквально вчера Сэм Альтман сообщил о том, что эта технология будет доступна для плюс-юзеров и даже для бесплатных с 10 и 2 запросами соответственно.
Для тех, кто не слышал, Deep Research — это технология, которую представила OpenAI для глубокого изучения какой-либо темы. Либо написания научной работы, диссертации и так далее. Deep Research использует модель o3, специально разработанную OpenAI для анализа и синтеза информации. Суть в том, что по одному запросу нейросетей для начала сама себе пишет план действий. Понимает, какая информация у нее есть, какой недостаточно, что нужно сверить, а что посчитать. Как все это оформить в единый документ и какого объема он должен быть. Контекстное окно у этой технологии, конечно, тоже гораздо больше. А самое важное, что относится к теме нашего выпуска подкаста, это то, что ответ занимает от 10 до 30 или иногда 60 минут.
И здесь я хочу плавно перейти к тому, что для меня, как для человека из того поколения, который пользовался Dial-up модемами, и за 10, 30 или 60 минут мог просто только прогрузить одну страницу в интернете, мне только на заре становления GPT-3.5 было бы достаточно этого времени для того, чтобы получить ответ на свой запрос. Но OpenAI сразу задали очень высокую планку по скорости ответа. Да, были вопросы к качеству, но тем не менее результат поражал. Можно было задавать уже запросы как в поисковик или получить какой-то готовый результат.
Например, таким образом я без знаний программирования написал Python script, который парсил нужную мне информацию. Да, я не придумал парсинг страниц. До этого я пользовался Google таблицами, которые через формулу вытягивали определенные данные с сайтов. Но там были свои ограничения, и я спросил GPT, а что я могу еще сделать. Он мне предложил сделать парсер на Python, а потом мне предложил написать код для него. Я разобрался с тем, как его запустить, и получил те данные, которые мне были нужны. То есть для меня это была уже невероятная технология. И если бы на генерацию ответа ей требовалось не минута, а один час, она бы меня впечатляла не меньше.