- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть сайт по зоотоварам. Сайт относительно новый (около полугода).
Яндекс не выпускает в индекс более 100 страниц - одни добавляет, другие убирает. Гугл - уже более 2500.
Карточки товара сделаны следующим образом:
1) около 700 символов автоматизированного текста такого вида:
"шаблон шаблон шаблон шаблон *название товара* шаблон шаблон шаблон *название категории* шаблон шаблон шаблон". Таким образом текст на всех страницах вроде как сравнительно уникальный.
2) 500-1000 знаков неуникального описания товара.
Есть ссылки с профильных ресурсов. Проиндексировано 15000 страниц, в выдаче нифига :crazy:
Уже чего-то только с ним не делали. Автоматические сгенерированные тайтлы для товаров и категорий.
Ответьте мне, насколько важна уникальность в тематике? Можем из-за этого быть в пределах 100?
Есть еще вариант с ЧПУ - у некоторых товаров длинноваты. Тестировали - сокращали их в одном разделе, но без эффекта. Есть у кого примеры, может это влиять?
Платон отвечает стандартной отмазкой:
"Часть страницы сайта отсутствует в поиске в результате работы алгоритма, который для каждой страницы, прогнозируя возможность её показа в результатах поиска, принимает решение о её включении в выдачу. О нём я уже сообщал Вам ранее. Подробнее его суть и принцип описаны в Помощи: http://help.yandex.ru/webmaster/yandex-indexing/excluded-pages.xml".
Т.е. не в индексе всего 100 страниц из 15 000? Это меньше 1%, можно забить на это.
можешь попробовать заказать прогон по твиттеру может индексация пройдет успешно! я так делал работает
Похожая ситуация по одному пациенту. Те же ответы Платона. Как раз прогон по твиттерам тестируем
qilly, Schips, прогон по твиттеру пока дал ноль реакции. Робот на страницах был, загрузил их, но они не допущены в поиск.
oleg_ws, 100 в индексе, 15.000 - нет.
Фильтр на новые сайты: /ru/forum/839210
уник (настоящий), твитер и тд не помогают
102, плохо однако...
с другой стороны в работе есть и другие новые сайты, которые не имеют такой проблемы. Там правда и объемы страниц куда как меньше, может фильтр есть, но не так заметен.
И что, вы так и не решили эту задачу?
можешь попробовать заказать прогон по твиттеру может индексация пройдет успешно! я так делал работает
Если сайт не вошёл за длительное время в индекс, то твиттер тут не поможет - хоть загоняйтесь.