- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
1. Хочу закрыть одну статью на блоге от индексации яндексом и гуглом. Что именно нужно прописать в robots.txt. Слышал, что это можно также сделать при помощи метатегов. В общем, какие варианты?
2. Сразу задам еще один вопрос. Насколько я понимаю, поисковики банят за неуникальный контент на сайте. Но вот например такая ситуация: на другом блоге я нашел статью, которую автор предлагает скопировать с его блога, естестенно, с размещением ссылки на оригинал. Допустим, я так и сделал, НО, тогда у меня ВОПРОС - а откуда знает робот поисковой системы, что скопировал я все легально и меня банить НЕ НУЖНО?
1. <meta name=”robots” content=”noindex, nofollow” />
2. роботы это не умеют определять
курите форм - 150 раз уже перетерто
1. <meta name=”robots” content=”noindex, nofollow” />
2. роботы это не умеют определять
курите форм - 150 раз уже перетерто
блог на WordPress, поэтому вероятно таким образом закрыть не получится (у всех статей один шаблон ведь)!
блог на WordPress, поэтому вероятно таким образом закрыть не получится (у всех статей один шаблон ведь)!
В вордпрессе возможность закрыть статью в роботсе присутствует только при определенном виде урлов, какие они у вас?
Вот например один вид
страница имеет ссылку http://domain.com/article/
в данном конкретном случае при написании в роботсе
disallow: /article/
страница индекситься не будет - проверено не один раз
2. роботы это не умеют определять
Интересно каким образом роботы это умеют определять?????? Может откроете тайну.🚬
Ведь есть случаи когда считался неуник контент сайтов-первоиточников, а кто скопировал - все наоборот.
Интересно каким образом роботы это умеют определять?????? Может откроете тайну.🚬
Ведь есть случаи когда считался неуник контент сайтов-первоиточников, а кто скопировал - все наоборот.
повторяю свои слова - роботы определять первоисточник не умеют - ваши слова тому подтверждение, что еще ответить?
basilic, сорри под вечер глаза вылазят, и слова путаю.
Еще раз сорри - увыидел "роботы это умеют определять"