osyst

Рейтинг
20
Регистрация
02.03.2012
Интересы
http://yandexmarket.blogspot.com
http://yandexmarket.blogspot.com

Есть некоторые сервисы, они предлагают прогоны по каталогам и профилям. Кидаются цифрами о 5000+ штуках каталогов, указывают пузомерки отличные от нуля и т.д. И стоит сие удовольствие от 5 до 15 баксов.

Способен ли такой прогон увеличить позиции при ранжировании? Не посчитают ли поисковики переспамом такой способ получения ссылок, и наоборот, не ухудшат ли позиции?

Тоже был в недоумении, проверил сайт, пол года его почти не обновлял, упали позиции - начал анализировать.... по LinkPad ссылок больше чем у конкурентов, а позиции ниже.... проверил ссылки - там большинство с сайтов, которые уже минимум пол года как не существуют.

osyst:
Столкнулся с такой проблемой.
Есть у меня сайт, размещал на него ссылки по всяким каталогам и профилям. Потом купил на гогетлинкс около 10 ссылок. Площадки, на сколько я смог определить, не плохие: тиц от 300, PR от 2, посещаемость от 1000, обновляются, не мертвые, индексация от 95% страниц.

И вот прописываю я в гугле link:домен.ру и не вижу не одной ссылки. Потом проверяю через allinanchor:домен.ру - вижу всего 4 ссылки, но ведущие из каталогов (закидывал туда массово по разным категориям ссылки на главную). Не одной более-менее качественной ссылки нет...

Тогда полез я проверять доноров, на которых покупал ссылки: ссылка размещена, в статье, в виде анкора, с околоссылочным текстом и все такое. По гогетлинкс пишет что у данного донора 100%я индексация, а вставляя в аддулку яндекса ссылку на статью - яндекс говорит что она уже в индексе...

Получается что ссылка как бы есть и проиндексирована, а поисковик это не отображает....

Проверял бэклинки через сервис xseo.in/smz - так вообще нашло на все страницы сайта 1000 ссылок, почти все из непонятных сайтов которые никак на меня ссылаться не могут. Но из этой тысячи нет не одного домена, на которых я покупал ссылки. Сайт на блогспоте бесплатном.

Не понимаю в чем дело, может я не так проверяю бэклинки? И передают ли вес сайту те покупные ссылки?
Спасибо всем, кто растолкует)

Неужели никто не знает?

gringos:
У меня на доске тоже структура не сильно продумана,еще на друпале делают,на поддоменах. Продвинул главную по нч, траф идет немного, добавил текстов своих и фото. Достал пачку ключевиков нч по каким пойдет траф, осталось писать короткие статьи. Еще немного заказывал, люди добавляли объявления. Еще можно тексты размножить и под каждый ключевик категории делать.

Если не секрет, можете поделиться результатами и статистикой?

Ну там сколько трафика, за какой промежуток времени, сколько статей и ссылок понадобилось и т.д.?

gringos:
А как шаблон Джумлы называется?
Надо делать категории по запросам которые вам нужны, в категории нужен текст уникальный, и закупать ссылок на продвигаемые категории, потом люди будут заходить и добавлять объявления.

Шаблон Ja_purity_ii.

Дело в том, что основная часть сайта и, самая информативная - личный кабинеты, вакансии и соикатели сделаны на одном компоненте JA Job Board. Данный компонент никак не связан с категориями и материалами джумлы, хранит все данные отдельно.

Категориями в данном компоненте являются специализации (Бизнес, Авто, Маркетинг и т.д.), судя по админке, и они не имеют собственного описания, по крайней мере в админке компонента... я так понимаю, это скорее похоже на тэги или просто фильтр поиска, чем на категории. На сайте есть возможность просматривать объявления по данным категориям, и при нажатии на ссылку какой-то категории отображается поисковая выдача (вот пример: http://gibkiygrafik.by/soiskatelyam/filter_job_list?cat_id=Бизнес). Кстати говоря, хоть я и запретил в роботсе индексацию дублей с filter_job_list?cat_id - они почему-то все-равно гуглом проиндексировались, но со скрытым описанием.

Возможно тут со структурой не особо все продумано, но дело в том, что для подобного функционала (регистрация двух видов пользователей с раздельным функционалом для каждого) я не нашел альтернатив, да и знаний пока что не хватает - начинающий))

gringos:
Какая cms на сайте, на чем сделан?
Надо копипаст разбавить уником, добавьте текстов, сделайте фото. Чтобы пс не приняли ваш сайт за дорвей.

На джумле сайт. Есть раздел новости, туда рерайчу потихоньку статьи, но соотношение пока что все-равно сильно низкое. Около 70 копипаст-вакансий и около 5 рерайт-новостей.

osyst:
Я уже выше писал про далеко не лучшие знания и, возможно, глупые вопросы)

Но я действительно не знаю какие файлы нужно править (и впринципе, каким образом это делается) в плане редиректов....

Так уж сложилось, что использую я несколько модулей, в которых множество компонентов, к которым есть еще плагины и т.д. И каким образом (способом) мне сделать редирект с ввв.домен.ру на просто домен.ру, или с домен.ру/модуль/категория/материал на домен.ру/материал...... ??

До сих пор я думал что роботс от этого спасает, а тут облом)

Так и не получил ответа на последний вопрос, поэтому АПну)

sentines:
Гуглу иногда пофиг на настройки роботса, хавает все подряд, в том числе и дубли... Убирайте дубли, а не закрывайте их и будет вам счастье! (Редиректы с ввв на без ввв, со \ на без него, с индекс.пхп и т.п.)

Я уже выше писал про далеко не лучшие знания и, возможно, глупые вопросы)

Но я действительно не знаю какие файлы нужно править (и впринципе, каким образом это делается) в плане редиректов....

Так уж сложилось, что использую я несколько модулей, в которых множество компонентов, к которым есть еще плагины и т.д. И каким образом (способом) мне сделать редирект с ввв.домен.ру на просто домен.ру, или с домен.ру/модуль/категория/материал на домен.ру/материал...... ??

До сих пор я думал что роботс от этого спасает, а тут облом)

А вот еще такой вопрос, к знатокам)) Проверил сайт программкой site-auditor, увидел что гуглом проиндексировано 100+ страниц сайта. Перешел посмотреть, что там за страницы. Получается что примерно 40 страниц действительно в индексе, а остальные 60 являются дублями вроде www.gibkiygrafik.by, gibkiygrafik.by или ссылки с index.php и без, а также ссылки со всякими модулями, компонентами и плагинами (joomla). И это очень печально, потому что в роботсе у меня стоит Disallow на эти пункты.

Некоторые из них в индексе, не смотря на файл роботс, а некоторые в индексе, но вместо описания страницы гугл пишет "Описание веб-страницы недоступно из-за ограничений в файле robots.txt".

В чем дело, как поисковик индексирует данные дубли при запрете в роботсе и как это исправить?

Заранее благодарен!

Romka_Kharkov:
Mutabors,
Я рекомендую cPanel, это отличный продукт, равных ему мало если вообще есть , по качеству поддержки, да и не только...

Но отдельно, могу подсказать вам еще такую панель как Interworx, слегка сыроватое решение, но вполне себе рабочее.

Ставлю +1 за cPanel - перешел на нее с директадмина и моментально влюбился)) На мой взгляд, очень простая и удобная для пользователя. Со стороны администратора ничего не могу сказать, не пробовал.

12
Всего: 20