- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
причем тут фавикон? Домен просто зарегенный через реселлера reg.ru
А причём тут Вордпресс? ))) И reg.ru )))
Я про историю спрашивал ...
сайт просто ГС, но делаю уже давно сайты так
Попробуй делать их по-другому ...
Sasha_ne, а Вы выходили из бана?
пару сайтов получалось возвращать, купил по незнанию забаненые домены, из 5 доменов 2 получилось вернуть :) теперь научился определять склейку и забанен или нет :)
Дело не в похожести. Если лень Платона беспокоить, пропишите Host в роботсе и ждите зеркальщика, затем - расклейки.
Или Вам шашечки, а не ехать? Причины склейки разными бывают. В т.ч. и глюки зеркальщика.
Беспокоить та не лень, просто сайт то ГС, он когда его увидит так в бан пустить вообще.
Извиняюсь, что именно там прописать?
xdimon добавил 23.06.2009 в 13:19
А причём тут Вордпресс? ))) И reg.ru )))
Я про историю спрашивал ...
Попробуй делать их по-другому ...
Ладно забыли...я все равно не понял...
А на счет по другому, я уже сделал 50 проектов, таких вот проблем никогда не было просто, да и стараюсь не наглеть, делать максимально по человечески ☝
xdimon добавил 23.06.2009 в 13:19
пару сайтов получалось возвращать, купил по незнанию забаненые домены, из 5 доменов 2 получилось вернуть :) теперь научился определять склейку и забанен или нет :)
А как проверял на бан?
Беспокоить та не лень, просто сайт то ГС, он когда его увидит так в бан пустить вообще.
Он по-любому рано или поздно скорее туда попадёт (если проиндексируется). А так хоть знать точно будете.
В роботс - директиву Host в разделе юзерагента Яндекса.
Извиняюсь, что именно там прописать?
host: www.вашсайт.ru (или без www - это как вам больше нравится или как продвигаете)
например:
User-Agent: *
Host: www.adressayta.ru
Sitemap: http://www.adressayta/Sitemap.xml
Цитата:А как проверял на бан?
домены ищу через ru-monitor.ru там выбераю сайты которые уже освободились и еще в индексе яндекса, если в индексе то значит не в бане :) там и на склейку проверяются.
Sasha_ne, а как из бана вытащили? письмецо Платонам и новый сайт?) Если можно в личку.
например:
User-Agent: *
Host: www.adressayta.ru
Sitemap: http://www.adressayta/Sitemap.xml
Некорректно составленный robots.txt, при обработке которого директива Host может не учитываться.
Некорректно составленный robots.txt, при обработке которого директива Host может не учитываться.
чем он неправильный? полез сейчас в яндекс, там примерно так же написано. или я чего не догоняю....
значит вот так правильно:
User-Agent: *
Disallow:
Sitemap: http://www.adressayta/Sitemap.xml
Host: www.adressayta.ru
чем он неправильный?
В целях совместимости с роботами, которые не полностью следуют стандарту при обработке robots.txt, директиву 'Host' необходимо добавлять в группе, начинающейся с записи 'User-Agent', непосредственно после директив 'Disallow'('Allow').