- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
vagogrande, я не специалист по серверам и их настройки, но чудес хватает, посмотрите загрузку, ошибки и т.п. возможно найдёте проблему :)
Должен быть лог у программы. Более того я писал уже про этот сайт неделю назад. Если выложить ответ, то возникает вопрос:
ЧТО КУРИТ ПРОГРАММИСТ? И где это купить, больно трава забористая.
Реально мой вывод: если у Вас сайт размером 50-100 страниц, то программа классная, если больше то деньги на ветер.
---------- Добавлено 22.01.2013 в 00:20 ----------
vagogrande, я не специалист по серверам и их настройки, но чудес хватает, посмотрите загрузку, ошибки и т.п. возможно найдёте проблему :)
Считай один сайт, винда, и эта программа. Машина i7 8 gb оперативки. Сам сайт 45000 страниц.
Гружу сайтемап. Сканирует 50-150 страниц нормально и перестает. Потом если дать : пересканировать битые ссылки, то находит 1000-1200 страниц, но опять битыми. Куда дела еще 43000 страниц?
Потом если дать : пересканировать битые ссылки, то находит 1000-1200 страниц, но опять битыми.
что-то мне подсказывает, что проблема не в программе
кстати, а xenu нормально сканирует?
vagogrande, у меня ваш сайт сканируется нормально. За 10 минут 800 страниц прошла, но правда я всего 2 потока поставил. Если вы загружали урлы с хмл то может в этом и есть косяк. Уже бывали проблемы с подгрузкой урлов, я правда текстовые файлы использую и сейчас всё нормально, а хмл я давно уже не проверял. Плюс сам файл может быть кривым.
Зачем вам кстати на каждой странице 2-е ссылки на карту сайта?
Str256, вообще-то, это просчитывается
Интересно как? Можно в личку.
______________________________________________________________________________
ну и код у сайта... роботс конечно длинный, но явно не весь мусор закрыт...
Вот такое ещё не мешало бы добавить:
Disallow: /*.css?*
Вместо звёздочки там произвольные цифровые комбинации, и полно таких ссылок в коде, по десятку на странице. Такие, я бы тоже закрыл: /image.php? Плюс ливезиллу тоже. А вообще, там такие ссылочки с параметрами, что чёрт ногу сломит...
Во внутренних ссылках не стоит применять нофоллов, вес всё равно уходит.
vagogrande, у меня ваш сайт сканируется нормально. За 10 минут 800 страниц прошла, но правда я всего 2 потока поставил. Если вы загружали урлы с хмл то может в этом и есть косяк. Уже бывали проблемы с подгрузкой урлов, я правда текстовые файлы использую и сейчас всё нормально, а хмл я давно уже не проверял. Плюс сам файл может быть кривым.
Для того, чтобы с этим разобраться нужно отсканировать сайт
Занизил параметры ниже некуда. Итог 22 страницы !!!
http://img-fotki.yandex.ru/get/6430/126983920.1/0_958c6_5aef34da_XL.jpg
Интересно как? Можно в личку.
это долго, я столько не напишу :(
Занизил параметры ниже некуда. Итог 22 страницы !!!
Ну так, паузы нету между запросами вот и результат. Плюс юзер агент - браузер, а не ПС. А сервера настроены обычно так, чтобы больший приоритет по ресурсам пс отдавать, чтобы владельцы сайтов не жаловались...
это долго, я столько не напишу
Методичка же должна быть какая-то. К каким значения привязывать внешние ссылки в зависимости от их характеристик.
Методичка же должна быть какая-то.
несколько месяцев убитых с программистом - вот и вся методичка :(
Заинтересовала ваша программа - Page Weight Request Range. Программа оценки конкурентности поисковых запросов. По функциональности вроде как схожа с AmazingNicheFinder, но анализирует также сниппеты и неполные соответствия ключевой фразе, что интересно. Да еще и кол-во объявлений в Директе считает )
Хотелось бы узнать, учитываются ли склонения, перемена мест слов из запроса при поиске совпадений?
При проверке запроса в кавычках заметил, что программа ищет в тайтлах и в сниппетах запрос вместе с кавычками, т.к. показывает 0 в графе "Вхождение всех слов в тайтл". Посмотрел в ручную, полные соответствия есть.
Планируется ли возможность работы программы через прокси и/или яндекс xml ?
несколько месяцев убитых с программистом - вот и вся методичка
Блин, хоть скажите с какой стороны к этому подступаться.
---------- Добавлено 22.01.2013 в 02:32 ----------
Micher, эта программа в отдельном топике обсуждается.
Str256, сначала собирается ся, разбивается на группы по страницам, потом переделывается вся структура сайта: удаляются все меню, двойные ссылки все не текстовые ссылки и ссылки с ненужными анкорами, количество входящих ссылок на страницу рассчитывается исходя из важности запросов ведущих на страницу, простановка ссылок начинается с самой мощной страницы, в зависимости от размеров сайта их может быть и 5 и 40, блок рандомный по количеству ссылок (например, при блоке 20 ссылок реально в блоке будет от 16 до 24 ссылок).
количество ссылок с конкретными анкорами просчитывается заранее