Dorco

Рейтинг
8
Регистрация
10.12.2012
evilrussianbear:
И хватит ломать конкурентам жизнь своим демпингом!

Все равно, что сказать "И хватит покупать ссылки на биржах!".

Вот все тут пишут слово "конкуренты". А то, что ценовую конкуренцию никто не отменял, в т.ч. тот самый якобы "вредный" демпинг, об этом сео-оптимизаторы забывают на каждом шагу. Когда ж в голову войдёт наконец К.Маркс и Ф.Энгельс вместо одноимённых Марса со Сникерсом, да объяснит доходчиво, что демпинг есть неотъемлимая часть экономической системы т.называемого капитализма?

Кто против демпинга (как если бы против рекламы: "- ой, он рекламу дал в 2ГИС, негодяй", а сам чего сидишь, ждёшь? Проспал?) - митингуйте за другой экономический строй и будет Вам счастье если не в Северной Корее, то в другом мире, возможно, на планете системы отличной от Солнечной. В раю, например, демпинга быть не должно, по идее 🍾

Яндекс как шёл, так и идёт по стопам Гугла с небольшими поправками на ветер. В этом, кстати, нет ничего удивительного. Снижение (вплоть до отмены) веса ссылочного в ранжировании является логическим продолжением и естественным эволюционированием. Конечно, никто не будет трогать внутреннюю оптимизацию. Конечно, никто пока не отменит ТиЦ как таковой. Но. Считаю, оптимизация под Яшу становится всё более похожей на "под Гугл".

P.S.

Это как борьба с "мультами" в онлайн играх. Всего два пути:

1) Собственно борьба (Яндекс до 2014-го года).

2) Сделать "мультоводство" бесполезным или невыгодным занятием 🍿 (2014-й).

При засилии "мультов" плюсов окажется больше во втором варианте.

Капча от Яндекса вполне ещё читаема. Посмотрите на капчу этого форума. Правильно удалось ввести только с 14-й попытки при восстановлении пароля. Полгода назад, оказавшись в такой же ситуации, просто забил на этот сёрч.

trahtor:
Ловко Вы Платонов вокруг пальца обвели.

Платон:

"Мы стараемся не индексировать или не ранжировать высоко:

...

группы сайтов одного владельца/компании, предоставляющие пользователю одни и те же товары или услуги, созданные с целью заполнения нескольких позиций в результатах поиска и сбора трафика"

Рео:
А у Яндекса мощностей, что ли не хватает? Тоже пусть вгоняет.

> Впервые добавленный 01.12.2012 sitemap для "xxx.ru" до сих пор не обрабатывался.

> Ошибок доступа к сайту и ошибок в sitemap.xml нет.

>

> Могут ли быть какие-либо причины с нашей стороны, из-за которых он не обрабатывается?

Платон:

"К сожалению, сейчас возникли задержки с обработкой Вашего файла sitemap, вызванные техническими проблемами с нашей стороны. Мы уже работаем над их устранением, но на это потребуется определенное время. Как только эти проблемы будут полностью устранены, Ваш файл sitemap будет обработан. Приносим Вам наши извинения в связи с этой ситуацией и надеемся на Ваше терпение и понимание."

Так что неизвестно, чего именно у них не хватает, но факт - чего-то точно не хватает.

Из-за одинаковых контактов ничего не будет. У любой компании есть право иметь несколько сайтов.

Прошу прощения, последний пост тут, обещаю, - самому надоело. Пост не из-за общения, из-за правды-матки.

Поскольку речь идет о страхе, рисках и перестраховке (azakzet) от неожиданных и случайных (Саратини) санкций Яндекса по отношению к излишней перелинковке с внутренних на главную... то не будет Вам другого ответа, нежели дал я, кроме уже озвученного автором сокращения линков на главную до минимума для перестраховки. Потому что никто не застрахован от ошибок ПС и неожиданностей в изменениях любых алгоритмов (в т.ч. фильтров), влияющих на результаты выдачи.

Боитесь любимого ПС... Только Вы сами в состоянии оценить свои риски (что у Вас на чашах весов) и принять соотвествующее решение, т.к. страховые компании пока не страхуют от потерь позиций в ПС. Хотите оценить вероятность, что причиной сдачи позиций может стать именно излишняя перелинковка на главную, и кто поможет? Узнать, были ли "случайные наказания" сайтам СДЛ за якобы излишнюю перелинковку на главную... Мне, например, тоже очень интересно, есть ли хоть один человек, достоверно обладающий такой информацией, поскольку это практически невероятно.

На поставленный в теме вопрос сам Платон не знает точного ответа. Нечего на меня пенять, пеняем на себя. Какой вопрос - такой и ответ. Поэтому, если все сделали по правилам, но все равно страшно, нечего дрожать, ходить из угла в угол нервничая и посылать всех подальше раздражительно, - пьем водку или валерьянку, и молимся на тот самый Яндекс, который ведет себя порой как стихийное бедствие.

От мальчиков девочкам:

azakzet:
Был конкретный вопрос
azakzet:
в перелинковке проставил примерно два десятка ( на 400 страниц сайта) контекстных ссылок на Главную ,безанкорных и анкорных. Фиг его знает, может не стоит дразнить гусей , убрать все их сразу ?
azakzet:
далее в топике было и объяснение
Dorco:
Убирать необязательно, если сделать все анкорными и в естественном окружении.
Джо Саратини:
Что ж, попробуйте.

azakzet:
если читать не научился , ступай в начальную школу
🍿
YaanGle:
Я думаю, с Вашим подходом Вам не составит труда найти сайты, содержащие в коде див с шрифтом розового цвета

Если они проиндексированы, как и те обратные ссылки, которые мы ищем в поисках доноров, то да, предлагаю попробовать для начала на черном или белом цвете, чтобы убедиться, что такая "магия" доступна всем.

Если Вы имеете в виду, что обратные ссылки могут быть закрыты "nofollow" и не попали в индекс, то, конечно, такие линки не будут найдены ни в Гугле, ни в Яше. Я пользуюсь Нигмой для поиска закрытых линков на любые ресурсы. Сложности в работе с поисковиками при этом подходе могут возникать только при обработке большого количества обратных ссылок. Об этом речи пока не было, но до тысячи доноров на Яше проблем нет. Можно использовать сервис http://xml.yandex.ru/

Прошу яснее спрашивать, т.к. очень трудно догадываться, что именно Вас смущает, YaanGle?

Не понял Вас. По коду страниц ищет поисковик, индексирует и добавляет в базу для выдачи. Вы делаете запрос по имени нужного сайта и в выдаче будут все актуальные (действительно работающие) ссылки на Вами искомый сайт - бэклинки. Исключая повторы, мы оставляем ссылки на сайты-доноры для того сайта, для которого делали запрос. Повторив процедуру для второго сайта, мы получим доноров и для него. Осталось объединить два запроса, оставив только совпадения.

Получить линки с выдачи можно и в известной программе "allsubmitter":http://www.webloganalyzer.biz/rushelp/allsubmitter/base_addfromse.html

P.S. Само собой, для поиска бэклинков нужно адрес сайта заключить в кавычки, - ищем целое словосочетание. При этом Гугл выдаст все бэки, а Яша отдаст будет объединять, если с одного сайта с повторяющимся анкором.

Желательно уточнить вопрос, для своих сайтов сравниваем доноров или нет.

Если по своим:

Даже в "гугл-инструменты для веб мастеров-ссылки на ваш сайт" данные могут быть отличны от "Яндекс-вебмастер-входящие ссылки". Но, тем не менее, это самая точная информация, которая доступна по своим сайтам. Как сравнить? Выгружаем в excel, делаем все в один столбец, накладываем фильтр по уникальным. Или сортировку в фильтре - одинаковые и похожие окажутся рядом. Это будет самой точной информацией по общим донорам.

Если не по своим:

"Левые" сервисы зачастую могут очень сильно ошибаться. Самый точный способ, известный мне - набрать имя сайта "http://имя сайта.имя домена 1УВ/" в яндексе или в гугле, предварительно отключив любую фильтрацию. Поисковик выдаст список сайтов, ссылающихся на ваш. Экспортировать результат поискового запроса в excel можно с помощью плагинов для браузеров, вроде этого: http://www.raznoblog.com/seo/2009/07/21/exportiruem-dannie-iz-firefox-v-excel-za-1-minutu/

12
Всего: 16