Tapkoff

Рейтинг
31
Регистрация
13.09.2008

Mark, к сожалению есть импортный товар которые поставляют 2 поставщики, но это частный случай и думаю со временем, ктото из поставщиков "проиграет" конкуренту

Я так понимаю что отрубить и активировать товар на сайте должен некий софт, внешний для CMS UMI, которые может получить доступ к базе данных движка.

Или это уже настройки самой CMS которые анализируют подгруженные прайсы, имеют некий файл соответствий для товаров, и уже сами выставляют статус наличия товара

Barlog Думаю, что такой используемый у Вас софт, это уже некая информационная система, которая и офисную систему обновляет и на сайте всем рулит. Вопрос только в сроках и стоимости разработки такой системы. Мы пока к ней еще не готовы

Поставщиков без артикула послать не можем. Сегмент выбранной нами одежды специфичен и мы на нем новички. Их круг ограничен. Если мы пришли на него, то пока не можем диктовать никаких условий. Будут объемы, обороты, репутация, тогда и можно уже требовать.

Н-н-не-нефтянник. Спасибо за подробный ответ

К сожалению, поставщики наружу xml файл наружу не выдают. У многих вообще сайты находятся в очень "простом" варианте.

Вариант со складом в этом проекте пока не рассматриваем, потому что много сочетаний размеров, цветов и товаров. Для других проектов изначально работали и работаем со своего склада. А вот в этом проекте столкнулись с новой для себя схемой работы...поэтому и вопросы.

Выбрали вариант №2 и находимся на 1-м этапе.

Сейчас парсером (datacol) сканируем сайты поставщиков. На выходе имеем xls Эксель (.xls) - файлы с названием, ценой, наличием товара и артикулом (у кого есть)

Интересуют теперь следующий этап:

Как эти данные теперь обрабатывать ? Есть вариант - "вручную". Когда менеджер сидит и сравнивает файлы по каждому поставщику за предыдущую недели и за текущую и, выявляя разницу, вносит соответствующие изменения на наш сайт. Сравнивать можно в и в экселе и в текстовых редакторах.

Но опять таки - это наполовину ручной труд.

Какие есть более "умные" способы ?

Интересует именно бизнес-процесс. Потому что многие пишут что "хороший программист за неделю может все сделать". Но чтобы он это сделал, я ему должен поставить ТЗ, и описать откуда и куда идет импорт-экспорт данных. Определить ID товара для корректной синхронизации и т.п.

Мне пока видится такая схема

Данные из файлов заводятся в 1С, которая в свою очередь интегрирована с CMS сайта. Но сложность в том, что у нас нет 1С.

Остается только импортировать эти файлы непосредственно в CMS сайта (у нас UMI). Но тогда должна быть жесткая привязка товаров по названию или артикулу, для синхронизации. Но у многих поставщиков нет артикулов товаров, а названия товаров у нас отличаются, так как мы их корректируем для лучшего СЕО, добавляя нужные ключевики.

Вот отсюда и вопрос ? Как правильно организовать обработку файлов, полученных парсером

Спасибо

Уважаемый gcb

Прочитал эту ветку всю, прочитал вашу ветку у темы, перечитал н-н-нефтянника, но не нашел ответа на свой вопрос. Хотя задача то стандартная, и стоит полагаю перед многими инет-магазинами

Есть инет-магазин одежды.

У которого около 10-и поставщиков, товаров около 500-700 наименований. Будет и больше.

К тому же, одежда одной модели может быть разной расцветки, и разных размеров.

Поставщики присылают информацию когда появляются новинки, поступление товара и т.п. НО никто не присылает информацию когда товар, размер или цвет заканчивается. В редких случаях могут прислать письмо раз в 2-3 месяца, что "такие то" товары сняты с производства. Но при этом на своем сайте они отсутствующих товар отмечают, либо "скрывают" эти страницы

Соответственно, мы не знаем как эффективно контролировать ситуацию - когда товар у поставщика заканчивается. И достаточно часто через сайт оформляют заказы на вещи которых у поставщика 1-2 дня как уже нет. В итоге - обиды от покупателей, "почему же" мы на сайте отображаем не честную информацию.

Сажать человека который еженедельно, циклически проверяет наш сайт и сайт поставщиков мне кажется не оптимально. Через некоторое время ошибаться начнет, от монотонной работы. А через месяц-два уволится, так как скучно и не интересно. Тем более за такую работу платить много не получится, да и не в этом дело. Ручной труд не эффективен, и трудно поддается контролю

У контент-менеджеров и менеджеров по продажам времени свободного нет, куча своей работы.

Как вы решаете этот вопрос ?

спасибо

seolink74:
тут.. здесь Это не траст
2 Напишите(закажите) статьи
3 Подберите доноров для размещения статей.

Как сайт будет готов проставите в статьях урлы на внутряк..

Этот магазин тоже будет узкотематический, поэтому под ключевики (3-4, не более) пока будет двигаться только морда.

А можно ли до появления сайта уже начать размещение статей ? Как раз на индексацию нужно 2-3 недели, к этому моменту уже рабочая версия сайта появиться. Так ?

А обычные ссылки не рекомендуете ? Или в свете последних заявлений яндекс - влияние ссылок значительно снизилось и эффект от них будет только через 3-4 месяца ?

Что еще кроме закупки статей и ссылок рулит сейчас ?

Постовые в блогах имеет смысл ? Или это все потом ?

Step40:
С составления сематического ядра..и после Все вопросы сами отпадут....

Ну скажем так, это не первый мой магазин который я двигаю. Все в топе, но запросы не очень конкурентные, так как тематики узкие.

Поэтому об ядре понятие имею.

Вопрос заключался в том, что можно начать делать сейчас по продвижению, пока сайт еще не выложен.

P.s. не воспринимайте это как "грубость".

ViZa:
Tapkoff, Яндекс уже стал индексацию внутренних страниц вашего сайта. Составьте для яндекса роботс с указанием главного зеркала. С гуглом Вам нужно всё-таки составить карту сайта. Карту XML Вы сможете сделать при помощи программы Semonitor.

В том то и дело, что sitemap уже сделал и подгрузил в яндекс и гугл. Может быть по этой причине Яндекс и начал индексацию страниц. Хотя с другой стороны, если присмотреться, то это страницы "старого" сайта-заглушки, который содержал всего 3 хтмл-страницы.

Подскажите, как выглядит строка для яндекса с указанием главного зеркала ?

И все таки, почему XML-Sitemaps.com и Гугле не могут проанализировать содержимое моей главной страницы на предмет внутренних ссылок

Спасибо