Я считал, что если "новичок" задает здесь вопрос "что такое хорошо, что такое плохо и как сообщество оптимизаторов оценивает тот или иной феномен" - то это не повод лепить минусы в морду.
Спасибо, анонимные "воспитатели".
Это не наш метод. Я вот думаю, сразу прокурору штата, который Attroney General, стучать или PayPal все-таки умеет защищать доверившихся ему продавцов.
Нет в мире совершенства: одни не умеют дописывать "пару строк в коде", но готовы заниматься каталогами которые принимают deep links, другие - умеют "пару строк в коде" писать, но не имеют желания заморачиваться с бесплатными каталогами, которые принимали бы deep links...
Понимаете, в SEO люди приходят с разных сторон. И я давно (лет 15 уже) не являюсь программистом. Заказывать скрипты на стороне (особенно для бесплатных каталогов) у меня тоже желания нет. Сейчас делаю каталоги на CNCat, а он кривовато определят повторные вхождения (иногда прямо пишет при показе новых предложений "этот URL уже находится в каталоге", иногда "duplicated links" надо кликать). Но разные страницы одного и того же домена CNCAT "свалить в одну кучу" не умеет. Если известен какой-то другой бесплатный скрипт, умеющий в админке сообщать о всех страницах с одного и того же сайта, находящихся в каталоге - это было бы решением.
Нет, имеется ввиду, что каталог будет готов поставить один линк (как угодно глубокий) на один домен.
Почему только один?
А Вы представляете сколько умельцев просабмиттят десятки или даже сотни страниц со своего домена в один и тот же каталог, если откроется такая возможность?
И как все это обрабатывать и отслеживать?
Сейчас каталоги принимают обычно один линк на домен (морду), и то приходится просматривать сотни сайтов в день.
Поэтому я хочу принимать тоже только один линк на домен, но разрешить ему быть внутренним. Проблема однако возникает в том, что для большинство скриптов каталогов не могут определить, что адреса вида http://www.domain.com/page1.htm и http://www.domain.com/page2.htm имеют общие свойства.
И одновременно те же самые скрипты каталогов всегда подскажут модератору, что какая-либо морда ( http://www.domain.com ) ведена многократно.
Поэтому в настоящее время, если я начну принимать внутренние ссылки, процесс наполнения каталога станет неконтролируемым (раз в несколько дней мне будут подсовывать внутренние ссылки с одних и тех же сайтов, пользуясь тем что модератор не может держать в голове список уже принятых в каталог сайтов, и я не буду иметь простых средств для чистки).
А с помощью каких скриптов можно модерировать "deep links"?
Была у меня идиотская мысль создать каталог только для внутренних ссылок. А потом подумал: с какого-нибудь одного и того же домена мне засабмиттят штук 50 разных внутренних линков, и никак их не отследить с помощью, например, CNCat'а.
А вот если бы была возможность автоматически отслеживаать разрешать только один внутренний линк на домен...
А что общество думает вот про такую дурацкую идею: все страницы (около 50 штук) превратить в субдомены. Гугл вроде морды никогда в supplemental results не загоняет, а ведь любой субдомен может оказаться мордой сайта.
Правильно ли я понял, что Гугл учитывает соотношение количества слов в ссылках (anchor text) и количесво слов обычного текста на странице? Если количество текста в ссылках "перевешивает", то страница считается как-бы созданной для ссылок и улетает в supplemental results?
PR страницы, IMHO, никак не влияет: у меня есть страницы выпавшие из индекса гугла (т.е. неиндексированные), на которые массово люди приходят с Google.Images
Имя файла картинки и alt картинки - само собой считаются оптимизированными.
Однако при прочих равных одни попадают в картиночный СЕРП, а другие - на задворки.
ДМОЗ копировать не планировалось, однако буду иметь ввиду.
Сейчас новые разделы второго уровня добавить не могу - хочу выдерживать одинаковое число субкатегорий во всех категориях первого уровня.
Новые разделы сделаю, как только сложится необходимость расширить и другие категории первого уровня (думаю это произойдет через 2-3 дня)