- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Доброе время суток уважаемые эксперты!. Помогите словом по делу
Я совсем новичок, создал сайт для продвижения, ему 3 месяца, неделю назад перешел на шттпс.
Проблема такова: По сайтмапу 300 страниц для индекса, а если смотреть по site: сайт вижу 933 страниц в индексе, открыл так же скрытые файлы, но дохожу только до 13 вкладки Гуугл в 128 странице и дальше поиска нет, что за фигня?!
Тут сразу же набивается следующий вопрос, пока искал все свои страницы врукопашку обнаружил много хлама таких как с ошибками 404, а так же куча фильтров по типу Производитель1, производитель2, характеристика 1.2, которые не несут пользы для пользователя. Можно ли как-то их закрыть все сразу, кроме страниц с сео фильтром от опенкарта?
Заранее спасибо за советы!
Доброе время суток уважаемые эксперты!. Помогите словом по делу
Я совсем новичок, создал сайт для продвижения, ему 3 месяца, неделю назад перешел на шттпс.
Проблема такова: По сайтмапу 300 страниц для индекса, а если смотреть по site: сайт вижу 933 страниц в индексе, открыл так же скрытые файлы, но дохожу только до 13 вкладки Гуугл в 128 странице и дальше поиска нет, что за фигня?!
Тут сразу же набивается следующий вопрос, пока искал все свои страницы врукопашку обнаружил много хлама таких как с ошибками 404, а так же куча фильтров по типу Производитель1, производитель2, характеристика 1.2, которые не несут пользы для пользователя. Можно ли как-то их закрыть все сразу, кроме страниц с сео фильтром от опенкарта?
Заранее спасибо за советы!
Зарегистрируйте сайт в Yandex.Webmaster, не придется искать страницы вручную.
Закройте ненужное через robots.txt
Зачем Вам на сайте сылки, которые не несут пользы для пользователя? Яндекс - это робот, который ходит по ссылкам, и если они есть, то он их съест, а если их нет, то он их не съест.
Зарегистрирован, "страниц в индексе" яндекс показывает тоже 128, но ведь по siteсайт гуугл мне показывает 950+, какие-то левые страницы сканирует а я не могу посмотреть их. Серч консоль поначалу мне выдавал тоже оишичное юрл я отмечал их как исправленные и все. Можете подсказать как их закрыть?(фильтра), и как быть с сео фильтром?, извините за вопросы, может я ваших глазах выгляжу окунем, но мне надо решать вопрос что бы двигаться дальше)
sani90, Найти страницы, которые вам не нужны, поставить там тег <meta name="robots" content="noindex, nofollow">
Найти причину генерации, исключить возможность появления дублей с ненужных страниц.
Мне нужно на каждой странице поставить такой тег?, а как найти эту причину такой генерации?, так же вижу много с пейдж 2,3..., ну жопа просто
У меня на одном из сайтов куча левых страниц как-то появилась после взлома. закинули папку о скриптом, он быстренько нагенерил страниц с внешними ссылками и они мгновенно проиндексировались. Скрипт я удалил, тех ссылок уже тоже нет, но от страниц уже пол-года избавляюсь
Да у меня хз левые они или нет, ведь я их не могу даже пересмотреть, а те что посмотрел просто фильра характеристик вылазят
---------- Добавлено 08.02.2017 в 22:54 ----------
У меня на одном из сайтов куча левых страниц как-то появилась после взлома.
Да и ломать меня некому, сайта никто не видет, 50+ места мои)
sani90, Возьмите любой краулер Netpeak Spider, Screaming Frog, Webbee и даже SiteMap Generator. Посмотрите, если там что-нибудь не нужное. Есть некоторая вероятность, что проблемы нет как таковой.
sani90, Возьмите любой краулер Netpeak Spider, Screaming Frog, Webbee и даже SiteMap Generator. Посмотрите, если там что-нибудь не нужное. Есть некоторая вероятность, что проблемы нет как таковой.
Уже столько макулатуры прочитал и перебрал, но походу проблема следующая, у меня в робот тхт стоит
Disallow: /*?sort
#Запрещаем индексировать все страницы с разными видами сортировок, ибо иначе у нас будет десяток дублей одной и той же страницы
Disallow: /*?order
#Запрещаем индексировать все страницы с разными видами порядка вывода, причины те же
Но почему-то гуугл их индексирует, что не так?!