Microsoft представляет инструмент для «глубоких исследований» на базе искусственного интеллекта в своем приложении-чатботе на базе искусственного интеллекта Microsoft 365 Copilot.

Недавно было запущено множество глубоких исследовательских агентов в чат-ботах, включая ChatGPT от OpenAI, Gemini от Google и Grok от xAI. В их основе лежат так называемые модели рассуждений ИИ, которые обладают способностью обдумывать проблемы и проверять факты самостоятельно — навыки, которые, как утверждается, важны для проведения глубоких исследований по теме.
Варианты Microsoft называются «Исследователь» и «Аналитик».
Researcher объединяет модель глубоких исследований OpenAI, которая лежит в основе собственного инструмента глубоких исследований ChatGPT компании , с «расширенной оркестровкой» и «возможностями глубокого поиска». Microsoft утверждает, что Researcher может выполнять анализ, включая разработку стратегии выхода на рынок и создание квартального отчета для клиента.
Что касается Analyst, то он построен на модели рассуждений o3-mini от OpenAI и «оптимизирован для выполнения расширенного анализа данных», заявила Microsoft. Analyst проходит через проблемы итеративно, предпринимая шаги для уточнения своего «мышления» и предоставления подробного ответа на запросы. Analyst также может запускать язык программирования Python для решения сложных запросов данных, добавила Microsoft, и выставлять свою «работу» для проверки.
Что делает инструменты глубокого исследования Microsoft немного более уникальными, чем у конкурентов, так это их доступ к рабочим данным, а также к всемирной паутине. Например, Researcher может подключаться к сторонним коннекторам данных, чтобы использовать данные от «агентов» ИИ, инструментов и приложений, таких как Confluence, ServiceNow и Salesforce.
Конечно, реальная проблема заключается в том, чтобы гарантировать, что такие инструменты, как Researcher и Analyst, не галлюцинируют и не выдумывают что-то иным образом. Модели, включая o3-mini и deep research, ни в коем случае не идеальны; время от времени они неправильно цитируют работу, делают неверные выводы и черпают информацию из сомнительных общедоступных веб-сайтов, чтобы информировать свои рассуждения.
Microsoft представляет инструмент для «глубоких исследований» на базе искусственного интеллекта в своем приложении-чатботе на базе искусственного интеллекта Microsoft 365 Copilot.
Недавно было запущено множество глубоких исследовательских агентов в чат-ботах, включая ChatGPT от OpenAI, Gemini от Google и Grok от xAI. В их основе лежат так называемые модели рассуждений ИИ, которые обладают способностью обдумывать проблемы и проверять факты самостоятельно — навыки, которые, как утверждается, важны для проведения глубоких исследований по теме.
Варианты Microsoft называются «Исследователь» и «Аналитик».
Researcher объединяет модель глубоких исследований OpenAI, которая лежит в основе собственного инструмента глубоких исследований ChatGPT компании , с «расширенной оркестровкой» и «возможностями глубокого поиска». Microsoft утверждает, что Researcher может выполнять анализ, включая разработку стратегии выхода на рынок и создание квартального отчета для клиента.
Что касается Analyst, то он построен на модели рассуждений o3-mini от OpenAI и «оптимизирован для выполнения расширенного анализа данных», заявила Microsoft. Analyst проходит через проблемы итеративно, предпринимая шаги для уточнения своего «мышления» и предоставления подробного ответа на запросы. Analyst также может запускать язык программирования Python для решения сложных запросов данных, добавила Microsoft, и выставлять свою «работу» для проверки.
Что делает инструменты глубокого исследования Microsoft немного более уникальными, чем у конкурентов, так это их доступ к рабочим данным, а также к всемирной паутине. Например, Researcher может подключаться к сторонним коннекторам данных, чтобы использовать данные от «агентов» ИИ, инструментов и приложений, таких как Confluence, ServiceNow и Salesforce.
Конечно, реальная проблема заключается в том, чтобы гарантировать, что такие инструменты, как Researcher и Analyst, не галлюцинируют и не выдумывают что-то иным образом. Модели, включая o3-mini и deep research, ни в коем случае не идеальны; время от времени они неправильно цитируют работу, делают неверные выводы и черпают информацию из сомнительных общедоступных веб-сайтов, чтобы информировать свои рассуждения.
Автор: dilnaz_04