- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Это можно также решить, расширением моделирования. ...
Опрос вверху не просто так прикручен :)
С моделированием можно много чего понавертеть полезного, но вот нужно это единицам. И есть некоторые сомнения в том, что все эти навороты отобьются.
В любом случае, сейчас еще с месяцок погоняем текущую версию, подчистим глюки, которые всплывут, и тогда уже будем решать на предмет дальнейших наворотов.
А что насчёт отдельной колонки с указанием, уровня страницы? Эта информация и так уже получается при прогоне, так что только вывести колонку. Я вам не раз уже говорил об этом. Софта такого нету с этой функцией - так что сразу получите конкурентное преимущество и вещь полезная кстати.
Не используют - потому что оно особо не развито, у 1.8 были с этим кое-какие существенные недочёты, я летом писал в прошлой теме. В этой тоже не особо. Появятся удобные инструменты, будут пользоваться. Можете к примеру версию выпустить с поддержкой моделирования за 1200р. Если там всё будет удобно, многие думаю доплатят. Доработок не надо существенных. .
А что насчёт отдельной колонки с указанием, уровня страницы? Эта информация и так уже получается при прогоне, так что только вывести колонку. Я вам не раз уже говорил об этом. Софта такого нету с этой функцией - так что сразу получите конкурентное преимущество и вещь полезная кстати.
Я так же не раз выдвигал контраргументы :)
Не используют - потому что оно особо не развито, у 1.8 были с этим кое-какие существенные недочёты, я летом писал в прошлой теме. В этой тоже не особо. Появятся удобные инструменты, будут пользоваться. Можете к примеру версию выпустить с поддержкой моделирования за 1200р. Если там всё будет удобно, многие думаю доплатят. Доработок не надо существенных. .
Я согласен, что моделирование крайне неудобно. Если честно, то моделирование как таковое возникло в первой версии как костыль. Сейчас, деревянный костыль заменили алюминевым :)
У меня довольно здоровое ТЗ на модуль моделирования лежит еще с прошлого года. Вопрос именно с востребованностью. Я хочу его сделать, и скорее всего будет версия PRO. Но тут вопрос окупаемости. PRO не будет стоить 1200 руб. Если делать действительно профессиональную, узконаправленную версию, то её стоимость будет порядка 100 у.е. и выше. Её уже не купят, "что бы было". А профессионалов в СЕО очень мало.
то её стоимость будет порядка 100 у.е. и выше.
это нормально :)
насколько могу судить по результатам, данные где-то пропадают (страницы)
причём чем больше потоков включаешь тем больше пропадает.
сканирую один и тот же сайт с разными настройками от 10-30 потоков - результат разный (количество страниц) :(
P.S. хотелось бы что бы в настройках можно было указать что часть ссылок являются внутренними.
например сканирую сайт www.site1.ru и хочу указать что все ссылки на домен www.site.ru являются внутренними
www.site1.ru - копия www.site.ru на локальном сервере, а заменить все абсолютные ссылки на относительные очень проблематично :(
это нормально :)
Да, это нормально. Вопрос в количестве людей, которые будут считать, что это нормально. А главное востребовано.
насколько могу судить по результатам, данные где-то пропадают (страницы)
причём чем больше потоков включаешь тем больше пропадает.
сканирую один и тот же сайт с разными настройками от 10-30 потоков - результат разный (количество страниц) :(
Это нормально. Если часть страниц вылетает на больших скоростях, то прога не может видеть ссылки, которые на них стоят. Соответственно не может выдрать сайт полностью.
P.S. хотелось бы что бы в настройках можно было указать что часть ссылок являются внутренними.
например сканирую сайт www.site1.ru и хочу указать что все ссылки на домен www.site.ru являются внутренними
www.site1.ru - копия www.site.ru на локальном сервере, а заменить все абсолютные ссылки на относительные очень проблематично :(
Ну вы, блин, даете (с) )) кому роботс локальный, кому ссылки с разных адресов поклеить :)
Нельзя решить все частные случаи. Но мы стараемся по максимуму реализовать более общие требования.
Пора голосовалку предложений прикручивать :)
У меня довольно здоровое ТЗ на модуль моделирования лежит еще с прошлого года. Вопрос именно с востребованностью. Я хочу его сделать, и скорее всего будет версия PRO. Но тут вопрос окупаемости. PRO не будет стоить 1200 руб. Если делать действительно профессиональную, узконаправленную версию, то её стоимость будет порядка 100 у.е. и выше. Её уже не купят, "что бы было". А профессионалов в СЕО очень мало
Я очень удивился, когда узнал что 2.0 - будет около 1000р стоить. Сколько времени потратили на тестирование... могли бы и 100 баксов цену поставить. И реферальную программу сделать, по инвайтам. И защиту усилить, не знаю как тут, а у 1.8 она слабая.
насколько могу судить по результатам, данные где-то пропадают (страницы)
причём чем больше потоков включаешь тем больше пропадает.
сканирую один и тот же сайт с разными настройками от 10-30 потоков - результат разный (количество страниц)
В битых смотри ссылках. Я сравнивал с эталлонной 1.8 - которая в 1 поток сканит, на выходе всё одинаково, если в 2.0 все битые ссылки пересканировать по много раз - когда с 500х ошибками ноль останутся - значит скан закончен. Потому и писал про автодоскан, чтобы по много раз вручную не запускать. Это актуальнее чем, локальный роботс.
Я так же не раз выдвигал контраргументы
На которые я успешно возражал.
1. Конкурентное преимущество которого нету ни у одной программы.
2. Позволит тем кто покупает статьи путём периодич проскана сайта проверять не изменился ли её уровень вложения.
3. Очень глубокое вложение влияет также и на индексацию, могут и не добраться - так что это способ взять ситуацию под контроль.
В битых смотри ссылках.
нет их там :(
с досканированием всё понятно, наверно стоит после завершения сканирования проверять сколько всего известно уникальных url в ссылках и сколько страниц есть в базе
нет их там :(
с досканированием всё понятно, наверно стоит после завершения сканирования проверять сколько всего известно уникальных url в ссылках и сколько страниц есть в базе
А ты пробовал скармливать проге xml карту сайта - есть потери страниц в этом случае или нету? И ещё ты не останавливал прогу во время скана? на первых бетках - это приводило к потерям страниц.
А ты пробовал скармливать проге xml карту сайта
если бы она была :)
нет не останавливал
если бы она была :)
нет не останавливал
У меня кстати тоже есть потери страниц. Сейчас посмотрел, список урлов был 2509, а прога нашла 2385. А на другом тестовом сайте, нормально всё. Но это не критично особо, так что я особо не заморочился, сколько нашла столько нашла. А 1.8. на этом же сайте нашла 2365. Так что не очень уверен что это с потоками связано, 1.8. сканилась в 1 поток - задержка 2 сек. А 2.0 30 потоков задержка 500мс, правда потом ещё куча досканов битых ссылок было. Другой сайт, 1.8 = 2сек, 1 поток, нашла 2805 страниц, 2.0 2894 = 500мс, 30 потоков. Всего было 2892. Правда такая вещь - скажем в результатах написано 3 битые, нажимаю на эту строчку - открывается страница - где их штук 20.