Новые возможности обработки и анализа текстов в Memoza!
Теперь в Memoza можно использовать искусственный интеллект для работы с одним документом или выборкой документов. Сервисы Memoza Chat и Memoza LLM позволят "разговаривать" с документами и извлекать из документов информацию в удобном виде.
Memoza Chat и Memoza LLM в целом решают одну и ту же задачу извлечения информации из текстов и её анализа, но подход и пользовательский интерфейс у этих сервисов разный.
Memoza Chat - это классический чат с документами, где пользователь в режиме диалога задаёт вопросы (промпты) и получает ответы согласно информации, хранящейся в Memoza.
Memoza LLM - это сервис в стандартном табличном интерфейсе Memoza. Здесь можно создать и сохранить набор PROMPTов, а затем использовать их с запросами.
Для работы с сервисами вам нужно создать инструкцию для LLM - большой языковой модели, "мозга" ИИ - которая называется PROMPT. Этот PROMPT может содержать описание информации, которую вы хотите получить, описание процесса обработки и анализа этой информации, формат представления информации.
Работать с Memoza Chat очень просто - нужно просто задать вопрос в поле ввода и получить ответ от ИИ. Этот вопрос и будет вашим PROMPTом. Разумеется, в PROMPTе можно задать не только вопрос, но и, например, указать формат представления данных. После получения вашего запроса система найдёт документы, из которых она сможет получить запрошенную информацию и сформулирует ответ. Если вы хотите работать с каким-то конкретным документом, вы можете явно задать путь к нему, и тогда система будет извлекать информацию только из него.
Опция работы с конкретным документом может быть очень полезна, если вы хотите извлечь из текста документа определённые атрибуты. Пример запроса (PROMPTа) и ответа ИИ для этого случае показан на рисунке.
Чат может работать не только с документами, но и с табличными данными и даже строить графики по ним.
Для удобства работы с промптами мы добавили удобный инструмент для создания промптов и их редактирования.
Мечта администратора данных - модуль для массовой обработки документов. Здесь вы можете сообщать сервису, какие атрибуты нужно выделить из документов, например, адреса электронной почты, упомянутых в документе, обработать группу документов и записать извлечённые данные непосредственно в базу данных Мемозы (или просто в CSV-файл).
В Memoza LLM можно создавать и сохранять PROMPTы, чтобы использовать их в дальнейшем с запросами. Запросы могут работать с одним документом или выборкой документов (поиск по ключевым словам или геопривязке). Для этого нужно сначала создать инструкцию для LLM, и сформировать запрос, который найдёт нужные документы. Этот запрос с промптом отправляются в LLM, которая вернет результат в указанном вами формате.
Если пока не все понятно и нет определённости с PROMPTом - идем по короткому пути. Выбираем PROMPT из существующих и создаем свой запрос. Например, формируем справку о геологической неопределённости, выдаём рекомендации по бурению, сравниваем геологию объекта с региональной геологией Западной Сибири.
В разделе "Советы" вы найдёте больше примеров PROMPTов. Если появились свои идеи для PROMPTа - создаем свой промпт и запрос к нему.
Ниже перечислены шаги, которые нужно выполнить, чтобы использовать Memoza LLM в работе с геологическими документами.
Если хотите обкатать сервис на своем документе - его необходимо сначала загрузить. После загрузки вашего файла система должна обработать его специальным образом, что займёт около часа, после чего этот файл можно использовать для ваших запросов к LLM.
Создайте свой PROMPT. Если пока не готовы, изучите существующие PROMPTы, что-то точно подойдёт!
Теперь нужно создать запрос, это намного проще, чем новый PROMPT!
Cистема обработает ваш запрос и покажет результат, он будет доступен в формате, указанном в вашем промпте (например, HTML).
Вернитесь к своему запросу и выберите "DOWNLOAD" в контекстном меню, чтобы скачать файл с результатом.
Доступные модели LLM и размеры контекстных окон:
Выбирайте модель в зависимости от объема обрабатываемого текста и требуемой глубины анализа.
Значения REQUEST TYPE:
Вы можете повторно использовать промпты для нескольких запросов, выбирая соответствующий PROMPT ID при создании нового запроса. Если же вы отредактировали промпт, для которого созданы запросы, то, чтобы применить новую редакцию промпта к запросам, нужно выбрать запрос, нажать "EDIT", затем "SAVE".
В системе есть примеры промптов, которые вы можете использовать в качестве отправной точки:
В промпте нужно задать формат файла, в котором вы ожидаете получить результат. Например, для HTML можно указать что-то вроде такого:
Результат представь на русском языке в формате HTML. Put HTML code between triple backticks (```).
Используйте контекстное меню для быстрого доступа к действиям с запросами, таким как отправка в AI.
Новые возможности обработки и анализа текстов в Memoza!
Теперь в Memoza можно использовать искусственный интеллект для работы с одним документом или выборкой документов. Сервисы Memoza Chat и Memoza LLM позволят "разговаривать" с документами и извлекать из документов информацию в удобном виде.
Memoza Chat и Memoza LLM в целом решают одну и ту же задачу извлечения информации из текстов и её анализа, но подход и пользовательский интерфейс у этих сервисов разный.
Memoza Chat - это классический чат с документами, где пользователь в режиме диалога задаёт вопросы (промпты) и получает ответы согласно информации, хранящейся в Memoza.
Memoza LLM - это сервис в стандартном табличном интерфейсе Memoza. Здесь можно создать и сохранить набор PROMPTов, а затем использовать их с запросами.
Для работы с сервисами вам нужно создать инструкцию для LLM - большой языковой модели, "мозга" ИИ - которая называется PROMPT. Этот PROMPT может содержать описание информации, которую вы хотите получить, описание процесса обработки и анализа этой информации, формат представления информации.
Работать с Memoza Chat очень просто - нужно просто задать вопрос в поле ввода и получить ответ от ИИ. Этот вопрос и будет вашим PROMPTом. Разумеется, в PROMPTе можно задать не только вопрос, но и, например, указать формат представления данных. После получения вашего запроса система найдёт документы, из которых она сможет получить запрошенную информацию и сформулирует ответ. Если вы хотите работать с каким-то конкретным документом, вы можете явно задать путь к нему, и тогда система будет извлекать информацию только из него.
Опция работы с конкретным документом может быть очень полезна, если вы хотите извлечь из текста документа определённые атрибуты. Пример запроса (PROMPTа) и ответа ИИ для этого случае показан на рисунке.
Чат может работать не только с документами, но и с табличными данными и даже строить графики по ним.
Для удобства работы с промптами мы добавили удобный инструмент для создания промптов и их редактирования.
Мечта администратора данных - модуль для массовой обработки документов. Здесь вы можете сообщать сервису, какие атрибуты нужно выделить из документов, например, адреса электронной почты, упомянутых в документе, обработать группу документов и записать извлечённые данные непосредственно в базу данных Мемозы (или просто в CSV-файл).
В Memoza LLM можно создавать и сохранять PROMPTы, чтобы использовать их в дальнейшем с запросами. Запросы могут работать с одним документом или выборкой документов (поиск по ключевым словам или геопривязке). Для этого нужно сначала создать инструкцию для LLM, и сформировать запрос, который найдёт нужные документы. Этот запрос с промптом отправляются в LLM, которая вернет результат в указанном вами формате.
Если пока не все понятно и нет определённости с PROMPTом - идем по короткому пути. Выбираем PROMPT из существующих и создаем свой запрос. Например, формируем справку о геологической неопределённости, выдаём рекомендации по бурению, сравниваем геологию объекта с региональной геологией Западной Сибири.
В разделе "Советы" вы найдёте больше примеров PROMPTов. Если появились свои идеи для PROMPTа - создаем свой промпт и запрос к нему.
Ниже перечислены шаги, которые нужно выполнить, чтобы использовать Memoza LLM в работе с геологическими документами.
Если хотите обкатать сервис на своем документе - его необходимо сначала загрузить. После загрузки вашего файла система должна обработать его специальным образом, что займёт около часа, после чего этот файл можно использовать для ваших запросов к LLM.
Создайте свой PROMPT. Если пока не готовы, изучите существующие PROMPTы, что-то точно подойдёт!
Теперь нужно создать запрос, это намного проще, чем новый PROMPT!
Cистема обработает ваш запрос и покажет результат, он будет доступен в формате, указанном в вашем промпте (например, HTML).
Вернитесь к своему запросу и выберите "DOWNLOAD" в контекстном меню, чтобы скачать файл с результатом.
Доступные модели LLM и размеры контекстных окон:
Выбирайте модель в зависимости от объема обрабатываемого текста и требуемой глубины анализа.
Значения REQUEST TYPE:
Вы можете повторно использовать промпты для нескольких запросов, выбирая соответствующий PROMPT ID при создании нового запроса. Если же вы отредактировали промпт, для которого созданы запросы, то, чтобы применить новую редакцию промпта к запросам, нужно выбрать запрос, нажать "EDIT", затем "SAVE".
В системе есть примеры промптов, которые вы можете использовать в качестве отправной точки:
В промпте нужно задать формат файла, в котором вы ожидаете получить результат. Например, для HTML можно указать что-то вроде такого:
Результат представь на русском языке в формате HTML. Put HTML code between triple backticks (```).
Используйте контекстное меню для быстрого доступа к действиям с запросами, таким как отправка в AI.