- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Для тог, чтобы не перебрасывала - надо посетить tulanet.ru с включенными куками
У роботов поисковиков они не включены.
У роботов поисковиков они не включены.
Все равно сайт один, что top.tulanet.ru, что tulanet.ru и Яндекс об этом знает !
Все равно сайт один, что top.tulanet.ru, что tulanet.ru и Яндекс об этом знает !
Ну и что, что он знает? Вы сообщаете роботу, что 301-й редирект осуществляется на http://tulanet.ru/ , а пользователь на самом деле попадает на совсем другую страницу. Мягко говоря, робот вводится в заблуждение. Уже за это можно схлопотать бан.
Ну и что, что он знает? Вы сообщаете роботу, что 301-й редирект осуществляется на http://tulanet.ru/ , а пользователь на самом деле попадает на совсем другую страницу. Мягко говоря, робот вводится в заблуждение. Уже за это можно схлопотать бан.
Это связано со сбором статистики: отключены куки -> нет переходов -> нет кликов. Возможно придется поддомен запретить к индексации.
Действительно, если работают автобаны, то чем робот умнее - тем тормознее. Но это поискову не надо. Возможно же сделать полную имитацию браузера с куками.
Гораздо проще считать всех потенциальными врагами и натравить тупую и злую собаку. А если мы не угадаем как правильно разложить для нее косточки она нас жестоко покусает.
Поэтому решать все-таки должен человек, проверять, вникать и банить, если злобно и умышленно: все мы люди разные и программная логика может быть разной.
Спасибо всем за поданные советы: буду исправлять не совсем исправное и писать грозному Я ;)
Гораздо проще считать всех потенциальными врагами и натравить тупую и злую собаку. А если мы не угадаем как правильно разложить для нее косточки она нас жестоко покусает.
Гораздо проще просто делать всё по-человечески.
А Яндексу разбираться в Ваших мотивах и умыслах резону нет. Увы, во многих случаях тут действует презумпция виновности.