Я очень удивился, когда узнал что 2.0 - будет около 1000р стоить. Сколько времени потратили на тестирование... могли бы и 100 баксов цену поставить. И реферальную программу сделать, по инвайтам. И защиту усилить, не знаю как тут, а у 1.8 она слабая.
В битых смотри ссылках. Я сравнивал с эталлонной 1.8 - которая в 1 поток сканит, на выходе всё одинаково, если в 2.0 все битые ссылки пересканировать по много раз - когда с 500х ошибками ноль останутся - значит скан закончен. Потому и писал про автодоскан, чтобы по много раз вручную не запускать. Это актуальнее чем, локальный роботс.
На которые я успешно возражал.
1. Конкурентное преимущество которого нету ни у одной программы.
2. Позволит тем кто покупает статьи путём периодич проскана сайта проверять не изменился ли её уровень вложения.
3. Очень глубокое вложение влияет также и на индексацию, могут и не добраться - так что это способ взять ситуацию под контроль.
А вот скажем некто купил рассказ у автора, с передачей полных прав на контент. Потом взял его переписал наполовину изменил мораль и концовку. Но в подписи под ним продожил указывать что это произведение автора А. Автор А может подать в суд и потребовать привести контент в базовое состояние?
А что насчёт отдельной колонки с указанием, уровня страницы? Эта информация и так уже получается при прогоне, так что только вывести колонку. Я вам не раз уже говорил об этом. Софта такого нету с этой функцией - так что сразу получите конкурентное преимущество и вещь полезная кстати.
Не используют - потому что оно особо не развито, у 1.8 были с этим кое-какие существенные недочёты, я летом писал в прошлой теме. В этой тоже не особо. Появятся удобные инструменты, будут пользоваться. Можете к примеру версию выпустить с поддержкой моделирования за 1200р. Если там всё будет удобно, многие думаю доплатят. Доработок не надо существенных. .
Никакой иглы не вижу. Постоянные всё равно отваливаются со временем если массово покупать:
- АГС или бан
- продажа ресурса, новому владельцу
- непродление домена
- непот на донора за масс продажу ссылок
- недобросовестные вебмастера
Так что всё равно приходится докупать новые периодически. А тут типо страховки, получится. И никто же не заставляет по такой схеме у всех ВМ покупать, хочешь без гарантий - можно и на обычных биржах купить.
Это можно также решить, расширением моделирования. Возьмём к примеру - карту сайта - на неё ссылаются все старницы сайта и она на все ссылается. Удалить все входящие и исходящие ссылки с неё и на неё - можно и сейчас, но откат потом назад невозможен - тогда надо возможным добавлять виртуальные ссылки в заданном количестве. Типа в настройках пункты:
- поставить на страницу ссылки со всех/указанных страниц сайта
- поместить на страницу ссылки на все/указанные страницы сайта
далее нужны фильттры, позволяющие кластеры сайта относить к различным группам, чтобы можно было указать, поставить ссылки с страницы на страницы такой-то группы или со всех страниц такой-то группы удалить такую-то ссылку. Ну как-то так... Типа, беру кластер - страницы в папке articles - кидаю с них всех ссылки на какую-то страницу, проверяю результат, если не нравится, то захожу на эту страницу и удаляю все входящие с этой группы.
Интересная тема, уже несколько лет вроде не обсуждалась... Но давайте будем реалистами.
Богоносец, кинул верную ссылку - большинство сайтов для продажи вечных ссылок - изготовлены и прокачены специально для продажи постоянных ссылок. Кроме того, как ЯК был критерием качества сайта туда принятого, так и миралинкс/гогетлинкс тоже имеют подобное, для подобных схем монетизации. Полно желающих купить сайт принятый в такую биржу, и с него будут продаваться ссылки до упора, пока сайт не уйдёт под АГС чтобы отбить расходы и заработать. А потом тоже самое начнётся на новом сайте, а старый домен и продлеваться наверно не будет.
Я помню с чего начиналось, коммерческие сайты, или РСЯ сайты которые не хватало денег на статьи по своей тематике, с которых они получали трафик и заказы - соглашались размещать сторонние статьи с ссылками за деньги, с этих денег заказывались неск статей без ссылок для себя. Кто-то с этих денег за размещение хостинг оплачивал. Кто-то стороние статьи не заказывал, но зарабатывал на контексте и сайт уже приночсил немало, и потому продажи статей с ссылками были ограничены, но и срок их велик. Это те сайты, с которых ссылки стоят уже много лет.
А теперь возьмём текущую ситуацию, манимейкерам которые имеют кучу сайтов, для продажи ссылок на биржах всё равно где сайт монетизировать - выгнали с одной биржи - пойдут в другую, забанили сайт, или снос под ноль всего и начать с нуля или забить и бросить. В принципе эта ситуация не выгодна никому, я помню ещё неск лет назад предлагал выход. Официальная биржа с ежегодной оплатой за ссылки, 1-й год полная стоимость, второй и последующие - скажем 25% - взамен фиксируется определённое число внешних на сайте и увеличивать их число нельзя. И ВМ выгодно, чем продавать бесконечное число ссылок с риском попасть под АГС, он получает постоянный источник дохода с сайта и мсжет его монетизировать дополнительно с помощью контекстной рекламы или ещё как. И рекламодателю, что сайт не засрут ссылками, значит их вес не сведётся к нулю, и что вероятность сайта попасть под санкции станет ниже существенно, и если и попадёт, то ВМ будет выгодно пытаться сайт отстоять перед ПС, и выше намного гарантия что ссылки никуда не снесут, а если и удалят случайно то восстановят. И меньше намного вероятность, что ресурс перепрофилируют, или новый владелец ссылки удалит.
Как-то странно, слева где результаты - написано 3 ссылки битые, а когда открываю вкладку битые ссылки их там 20.
Вот ещё пожелания - сделать возможным ввести своё1 значение таймаута, сейчас максимум 2 секунды, а при доскане битых ссылок может и 5 сек понадобиться.
[ATTACH]116367[/ATTACH]
Как-то не айс. Я уже и раньше говорил, что помимо стандартных файлов бэкапа .bak нужен ещё один формат .arh именно для архивных копий. Чтобы можно было сохранить в арх, потом производить моделирование в рамках этого же проекта или очистить проект полностью, но при необходимости восстановить его из архива.
Я не ТС, но отвечу. Подойдёт - за неск часов просканирует. Речь выше - про битые ссылки, если выставить малые задержки и много потоков, а сервер не очень мощный. Приходится их сканировать повторно.
Отлично сделано по HTML карте. А можно, ещё перед созданием вносить коррекцию в анкор ссылок?
Титл часто бывает состоит из 2-х частей: уникальная для страницы и общая для сайта (название компании, телефон и т.л.). В итоге при традиционной генерации приходится карту открывать в блокноте и с помощью замены стирать 2-ю лишнюю часть - можно ли перед созданием карты указывать - из титлов стирать вот эту фразу? И чтобы была возможность называть карту по своему.
По 1.8 - тоже сюда писать? так вот там как-то странно с импортом урлов. около 3к урлов пробовал добавить - добавляется только около 700. остальные никак. Из текстового файла нормально добавляются. P.S. Впрочем всё равно вылетела минут через 10, запустил пока обычным способом(( будут вообще доработки? Я помню список приводил ещё в августе.