Sergio Maricone

Рейтинг
30
Регистрация
07.06.2012
Vyacheslaf:
А такие доноры подойдут http://zalil.ru/34404681 ? дождись загрузки pdf отчета

Не плохие, кроме того, что я очень осторожно отношусь к профайловым вещам... обжегся... а вот вики + закладки - нормуль

Но, для моего проекта этого объема будет маловато, скажем так...

AndreyMakarow:
Так в том и дело что весь сайт это ок. 105 страниц которые все есть у гугла в индексе. и по запросу сайт:домен он мне показывает 105 нормальных и 0-2 дубля... а больше не выдает.... можете попробовать (site:nsgroup<@>info - только замените там на точку и увидите). 314 страниц но покажет только 109 если кликнуть "показать все результаты" то покажет 113 (там еще пару страниц всякой муры с сайта) Но дублей там нет.
В том-то и соль... как вытянуть остальные 200 адресов.

Вы немного путаете понятия про дубли и про количество выданных в индексе страниц в пагинаторе гугла... Ни для ни одного из сайтов гугл не даст просмотреть все страницы... обрежет обязательно при перелистывании... и обрезание не обязательно означает, что непоказанные страницы - дубли...

Если Вы знаете свой сайт хорошо, и знаете все его старницы, то можно в итоге вручную все на дубли проверить, или ждать данные от WMT

300 старниц проверить, это не убрать 1 лям дублей

Regdomain:
ясно
а что делать с форумом?

В зависимости от задачи... если нужно его запустить тоже, то поступить как описано выше, или, закрыть его нафик... я ж не знаю, какие цели и на сколько он полезен и живой

Славка:
А какой смысл если это не реальные клиенты а конкуренты которые срут специально? Каждый руководитель всегда решит проблему с клиентом в пользу клиента. А вот с конккрентом такая фишка не прокатит.

Вот для данного случая, как я написал выше, есть в гугле инструмент, на пожаловаться на неправдивый и т.п. контент... страница убирается гуглом в течении 24 часов из выдачи...

И на сайт, если на него будет переодически поступать разного рода жалобы, накладут санкции целиком, а на не одну отдельно взятую страницу...

AdShark:
Всем привет!

Кто нибудь знает, падает ли трафик в момент переезда сайта с одного домена на другой по 301 редиректу?

А то трафик с гуугла значительно просел спустя 6 дней как начал переезд...

всем спасибо :) !

Падает в 1.5-2 раза... Потом может быть взлет, но он не дотянет до старого трафика...

Если задумали переезд по 301 из-за бана - не советую... полегчает на несколько недель или месяц, через 1.5-2 месяца пессимизация доберется и до нового домена...

AndreyMakarow:
Да спасибо. Я вроде так и делаю. Но это о-о-о-о-чень медленно.
Все было бы куда шустрее если бы взять эти 200 дублей поставить с них 301 ред в хта и удалить в ВМТ.

Если их адерса известны, то в чем вопрос? И их всего 200 :)

105 страничек проверить в гугле на дубляж и потом убить клоны... Это точно можно сделать за 3-4 дня...

Как для меня и на моем же опыте - идея хорошая и работающая...

Если кто может оказать подобные услуги, рассмотрю предложения в ЛС, очевидно, на платной основе... Работой обеспечу не на один месяц

AndreyMakarow:
Sergio Maricone, Может вы с высоты опыта что либо подскажете по моей проблеме... тоже дубли:
/ru/forum/784383

Не за что :)

Vyacheslaf:
Поставь HMA! Pro VPN и будет у тебя IP той страны которую тебе надо. Гугл сам будет переключаться.

Ну, это и так стоИт :)

Вопрос был больше про то, как двигать сразу везде :)

В каталогах местных в 9 из 10 случаев требуют локальный адрес... часто директории глючат, работают с ошибками, не смотря на громкие названия, типа "Number One Australian Directory" :)) проблема найти действительно хорошие

AndreyMakarow:
Ребята, помогите плс спарсить все адреса сайта, которые есть в гугле.
У меня есть сайт на котором 105 стр. из них Джумла мне замутила ок 3000!!!. С помощью плясок с бубном (склеиванием дублей в хта, изменением ссылок страниц) мне удалось победить большинство, но осталось еще ок. 200 дублей в индексе. и они там болтаются ч. знает сколько. Пытаюсь до всего дойти сам но сейчас уже не осилю.
Я поменял показы гугла по 100 результатов на странице, потом смотрю исходник и из него вытягиваю все адреса, отфильтровываю нужные и так мне удается поймать 1-3 в день, но это же маразм. Гугл показывает 100 +10..15 страниц и все. хотя пишет что найдено 319 страниц. Уже пару месяцев никакого эффекта от моей работы нет.
не могу найти программу, рабочий скрипт, которые мне в этом помогут - начинаю нервно курить 🚬.
Если кто может, протяните руку помощи плс. 🍻
site:nsgroup<@>info

Ручной способ поиска дублей - рутина конечно...

Проще всего добавить сайт в WMT и он, если будет находить дубли, будет их медленно и нудно переодически доставать и показывать...

По мере поступления, удалять нафик... Как?

301 - если нужно сохранить и передать вес старницы и/или на нее были внешние

302 - если есть внешние ссылки с трафиком, и/или не хотите склейки

410 - сообщить гуглу что страницы больше нет (лучше, чем 404, потому что 404 ошибку по ней гугл будет "вспоминать" месяцами)

или, внутри страницы ставить мета-noindex, что заставит робот убить ее везде...

301 в последнее время начал глючить... лучше применять остальные методы, по возможности... глюк в следующем - у меня, например, страницы, которые вроде все под 301, в индексе гугла, а нормальные, нет... может явление временное и пройдет, но у меня уже 2 недели не отпускает

Если есть прокешированные страницы, а на сайте их давно нет, то в том же WMT есть удаление страниц... Указываете какую и убиваете из индекса и из кеша этого паразита...

Прокешированные дубли проверяются так, команда в гугле site:ссылка_проверяемой_страницы

В выдаче будут кроме нее дубли... их и убивайте

1-3 месяца и победите всех, если будете все верно делать :)

Всего: 288