Какие виртуальные сети можно применять для автоматического заполнения таблиц, основываясь на данных с сайта продавца?

Добрый день! <br/> Я немного сомневаюсь в том, что влияние искусственного интеллекта на нашу жизнь действительно так велико, как об этом говорят. Я признаю, что системы на базе ИИ успешно применяются для кибербезопасности, анализа угроз и в медицине, однако для обычного офисного работника, как я, эти достижения кажутся впечатляющими, но не очень применимыми на практике. Я иногда использую ChatGPT для создания нестандартных коммерческих предложений или презентаций, а Midjourney произвела на меня впечатление — с хорошо продуманным промптом можно достичь интересных результатов, но это скорее развлечение, чем работа. Большинство других генераторов и приложений напоминают ChatGPT. 

Возможно, я упускаю что-то важное, и поэтому хотел бы задать вопрос. Например, у меня есть техническое задание (ТЗ), в котором заказчик описал необходимую продукцию с характеристиками в виде электронной таблицы (в Excel или Word). Я знаю, что эта продукция доступна в интернете и даже на конкретных сайтах. Но когда в ТЗ указано 30-40 наименований, процесс составления коммерческого предложения занимает довольно много времени. Существуют ли какие-либо решения или инструменты, которые могли бы облегчить эту задачу? Спасибо!
  • 18 октября 2024 г. 12:32
Ответы на вопрос 2
Добрый день!

Ваш вопрос вполне уместен, и вы не одиноки в сомнении о практической применимости искусственного интеллекта (ИИ) в повседневной работе. Действительно, существует множество инструментов, которые могут значительно упростить задачу автоматического заполнения таблиц на основе данных с веб-сайтов.

Вот некоторые подходы и инструменты, которые могут вам помочь:

1. **Парсинг данных (Web Scraping)**:
   - Использование инструментов для сбора данных с веб-сайтов. Это может включать такие языки и библиотеки, как Python с Beautiful Soup или Scrapy. Эти библиотеки позволяют извлекать информацию с веб-страниц, структурируя ее в нужные форматы (например, в CSV или Excel).
   - Для менее технических пользователей существуют готовые решения, такие как **Octoparse** или **ParseHub**, которые предоставляют визуальные интерфейсы для извлечения данных с веб-сайтов.

2. **Инструменты для автоматизации**:
   - **Zapier** или **Integromat** (теперь Make) позволяют автоматизировать обмен данными между веб-приложениями и сервисами. Вы можете настроить триггеры, которые будут отправлять данные с одного сервиса (например, с интернет-магазина) в вашу таблицу на Google Sheets или Excel.
   
3. **Использование API**:
   - Если у сайта-продавца есть API (интерфейс программирования приложений), это самый надежный и структурированный способ получения данных. С помощью API можно извлекать нужные параметры товаров и автоматически заполнять таблицы.

4. **Искусственный интеллект для обработки данных**:
   - Существуют модели, которые могут помочь в анализе и обработке собранных данных. Например, вы можете использовать OpenAI API в комбинации с парсингом для создания коммерческих предложений на основе полученных данных.

5. **Шаблоны и надстройки для Excel**:
   - Множество надстроек для Microsoft Excel позволяют интегрироваться с внешними источниками данных. Это может существенно ускорить процесс.

6. **Облачные решения для совместной работы**:
   - Google Sheets, например, имеет функцию IMPORTRANGE, которая может помочь объединить данные из различных источников, а также может работать с API для получения данных.

7. **Специализированные программные решения**:
   - На рынке существуют специализированные решения для автоматизации процессов составления коммерческих предложений, такие как **Proposify** или **Qwilr**, которые могут интегрироваться с другими системами и ускорить процесс.

Вам стоит рассмотреть, какой из этих инструментов или подходов может быть наиболее полезен в вашем конкретном случае. Возможно, комбинирование нескольких методов позволит вам максимизировать эффективность и упростить свою работу.
Современные ИИ не подходят для сбора информации напрямую (типа даешь картинку, пишешь запрос,..), так как ответ будет с 70% вероятностью верным, а 30% нет (пропуски и фальшивое срабатывание)... но попытки такие (работающие с неструктурированной информацией) системы собрать само собой есть, не уверен, вроде бы топовые с 90% вероятностью проходят тестовые выборки. 

Твоя задача должна решаться 'по старинке', собираешь список сайтов, для каждого сайта пишешь парсер, собранные данные приводишь к виду с единой структурой... и не забываешь в договоре с разработчиком пояснить, что сайты меняются, парсеры требуют поддержки и правки соответственно этим изменениям. Возможно каждый парсер простой, но когда у тебя их десятки, потребуется какая то система автоматического их контроля работоспособности,.. в общем не просто.
Похожие вопросы