- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
В общем над сайтом начал работать а клиент где то начитался, мать его, и без моего ведома поправил robots.txt поставил host:domen.ru вместо host:www.domen.ru.
В итоге в индексе только domen.ru, ссылки все на www.domen.ru.
Что лучше сделать, что бы не терять время?
Начать продвигать без www?
Поставить в роботе с www и ждать? Если ждать то сколько примерно?
Сайт проиндексировался только позавчера.
Зачем клиента пустили до админства сайтом ?
А если бы он там дизалоу ол поставил ?
ИМХО:Взял сайт на продвижение-обговори условия, а еще лучше сразу смени пароль на фтп и админку хостинга.
Миныч, спасибо, попробую.
Adolf Mauder, а вы работали с крупными компаниями? Похоже что нет.
У больших компаний есть свои администраторы сайта и максимум что я могу так это то же получить доступ к FTP. Это их собственность и никто не даст мне полных прав, разве что они полные идиоты и не боятся потерять свой сайт вообще.
А проверять каждый день robots.txt маразм, хотя с этим клиентом буду это время от времени делать.
Лучше бы дизалоу поставил, тогда через 1-2 апа все точно было бы ок.
doomer,
Зеркальщика давно не было, так что может быть успеете до его визита.
А проверять каждый день robots.txt маразм, хотя с этим клиентом буду это время от времени делать.
Лучше бы дизалоу поставил, тогда через 1-2 апа все точно было бы ок.
Как договорились, так и придется проверять:) Если серьезно, то для ускорения процесса директива хост - лучший выбор. Есть существенные "но". Во-первых, вовсе не факт, что склеит именно так, как прописали (я в директиве указывал с дабиками, склеил на без дабиков по типу как в каталоге описано). Во-вторых, после прочтения директивы хост из индекса выпадут все страницы с "неосновными" алиасами. То есть, гарантированно потеряете обращения с Яндекса. И гарантий по срокам не даст никто.
Мне кажется, что нужно все это дело просто объяснить клиенту. По-другому не получится.
Все ок, ночью склеил. Всем спасибо.