- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Wiiseacre, А в стандартную добавляйте сколько хотите и без ограничений, и эффект с них наверное одинаков.
Стандартная - это webmaster.yandex.ru/addurl.xml? Так там и написано, что она для новых сайтов и не должна была хорошо работать. Зато теперь хоть знаем, кто плохо сделал аддурилку - Сливинский, можно ему претензии написать.
Так написано же, как она будет работать:
1) В очереди - это означает, что страница была передана роботу для обхода, и в течение 3 суток заявка будет обработана.
2) Робот обошёл - страница была посещена роботом, а данные о странице в поиске обновятся с последующими обновлениями поисковой базы.
3) Ошибка - робот не смог посетить страницу.
Не пойму зачем развивать ручные методы работы. Понимаю страна такая, но это же не развитие. Гугл индексировать все налету начал уже года три назад и официально об этом объявил. С этим частично решился вопрос воровства контента.
У нашего Я все по нашему - то вводи содержимое страниц в окошко (в старом вебмастере), то укажи ручками страницы, которые считаешь что нужно проиндексировать. Какая тут работа с большими данными, если их собрать на автомате нельзя.
Уверен, большинство вебмастеров в гугл.вебмастер раз в квартал заходят, а в вебмастер.яндекса.......
Эх((( обидно - где наши мозги программисты, которые сделают из Я "конфетку", которая не будет в ручном режиме работать, наказывать сайты то за то, то за это, а просто научиться собирать данные, обрабатывать их и развиваться вместе с Рунетом
А причем здесь программисты, когда индексирование и индекс ограничены мощностями сервера? Можете посмотреть выступление на TED автора xkcd о том, как он подсчитывал количество информации на серверах гугла (получилось 10 эксабайт на жестких дисках и 5 эксабайт на магнитной ленте, которая практически вся выпускается для гугла). Так что для индексации всего подряд нужны доходы в твёрдой валюте.
где наши мозги программисты, которые сделают из Я "конфетку"
У Яшки не хватает ресурсов все индексить как гулг. В этом плане их даже нет смысла сравнивать.
и не должна была хорошо работать
Скорее всего эта будет все так же не хорошо работать.
Добавил страниц 200 на разных сайтах, на всех проставился статус "Робот обошёл" в течение получаса.
Сказано недвусмысленно, что он именно обошел и ждите АПа по сегодняшнее число. Отличный инструмент для ускорения переиндексации, особенного глубоко расположенных в сайте страниц, проверим вместе с АПом.
Не понимаю Вашего недовольства.
У Яшки не хватает ресурсов все индексить как гулг. В этом плане их даже нет смысла сравнивать.
Надо просто в своей нише работать и достойно, тогда ресурсы будут хватать. Мы же помним как Я начал продвигаться на англоязычные сайты, как на турецком рынке рулить начинал. Тактика должна быть и технологии. А сейчас ведь для многих - библиотека знаний - это Google, а витрина магазина - это Я.
При падающем спросе со стороны населения ясно кто окажется впереди, если ФАС не поможет по китайскому сценарию.
Я просто хочу, чтоб отечественный поисковик развивал технологии, а не ручные методы работы. Все же мы видим к чему ручной метод работы приводит.
В помощь индексации анонсировали поиск для ИМ, на картинках очень неплохая штука. Записались на тест.
развивал технологии
Яндексоиды как показывает практика не могут сами создавать и развивать и это уже давно не секрет. У них хорошо получается копировать у других таких как гугл.
Не хватает формы оплаты. Хотите индекс? 200 рублей страница. Яндекс - найдется все. За деньги.
И гадать не надо, скоро такое и будет.
Отличая тема, по многим недавно запущенным сайтам, загнал в индекс нужные страницы. Робот приходит в течение нескольких минут, 3 дня ждать не нужно. А потом да, только обновления базы дождаться.