- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
После регистрации в проекте кольцевого обмена ссылками TrafX сайт упал по результатам СЧ запроса с 22 на 275 место :no:
Сдается мне, что все что написано вот по этой ссылке имеет место быть! То есть, Google проверяет естественность ссылки именно по принципу подстановки ?a=b&c=d&e=f... в URL запроса. Если по URL www.site.ru и www.site.ru/?a=b&c=d&e=f... web-сервер возвращает страницы с разным количеством ссылок, то Google считает, что на сайте есть покупные ссылки. Система TrafX не обрабатывает должным образом параметры в URL, и если параметры заданы, то ссылки не системой не проставляются. Других причин того, что так понизились позиции я не вижу!
Скрипт я подправил, теперь на моем сайте такой номер с проверкой не пройдет. Остается вопрос, вернутся ли позиции...
Вероятнее всего, алгоритм следующий. Google сканирует страницы Интернета и находит страницы A, B, C, которые не прошли проверку параметрами URL. Google анализирует, какие именно ссылки не прошли проверку на этих страницах и запоминает анкоры этих ссылок. Предположим, среди таких ссылок была найдена ссылка на ваш сайт X. Сайт X анализируется подобным же образом через параметры URL, и если он проверку не проходит, подтверждается его участие в системе обмена/покупки. Значит по запросам с найденных на сайтах A, B, C анкоров сайт X пессимизируется или вообще выпадает из поиска.
а что, по логам было видно что боты гугла делают такие запросы? :)
Если бы так и было то все сайты продвигаемые Сапой упали бы в Гугле (а такого не наблюдается)
Других причин того, что так понизились позиции я не вижу
Других причин может быть вагон и тележка.. А сайтег TrafX сильно смахивает на обыкновенный линкатор, за который в баньку..
В TrafX есть еще одна недоработка, если объявления размещаются на главной странице.
Если обращаться к сайту как www.site.ru и как www.site.ru/index.html, то в первом случае объявления размещаются нормально, а во втором их нет. Скрипт пришлось дорабатывать, чтобы обойти эту недоработку.
Логи посмотрю, проверю :)
По заявлениям разработчиков системы, она не противоречит политике поисковых систем, так как позиционируется как система обмена трафиком. Она как раз появилась с тем расчетом, что биржам ссылок скоро прийдет конец. Где-то даже читал статью Ашманова по этому поводу...
А сайтег TrafX сильно смахивает на обыкновенный линкатор, за который в баньку..
ну, не совсем обыкновенный. почитал требования к сайтам. жесткие требования.
По заявлениям разработчиков системы, она не противоречит политике поисковых систем, так как позиционируется как система обмена трафиком. Она как раз появилась с тем расчетом, что биржам ссылок скоро прийдет конец. Где-то даже читал статью Ашманова по этому поводу.
на заборе тож кой-чего написано. обмен трафиком:D чего тогда ссылки не через редирект или ноиндекс с нофолов? да и ашманов там не причем вообще. это они каким-то образом примазались к нему, уж хз как. вы другие выпуски рассылки ашмановской читали?
Какой именно выпуск вы имеете ввиду? Приведите ссылку.
alger, ну последующие. после пиара этого линкатора. вот процитирую:
Анализ лога теорию не подтвердил. Однако, это не исключает, что описанный способ может использоваться поисковыми системами. Проанализировать лог файлы сайтов, на которых стоят ссылки ведь невозможно.
Здесь можно прочитать статью из рассылки Ашманова про TrafX, кто не в курсе.
Анализ лога теорию не подтвердил. Однако, это не исключает, что описанный способ может использоваться поисковыми системами. Проанализировать лог файлы сайтов, на которых стоят ссылки ведь невозможно.
да им нафиг это не сдалось, увеличивать мощности на индексацию )
Разговор о том, что Яндекс, например, старается бороться с SEO-ссылками ходит уже давно. Вы знаете какой-то другой способ отделения покупных ссылок от обычных?