ArtGallery

Рейтинг
52
Регистрация
07.02.2005

Я считал, что если "новичок" задает здесь вопрос "что такое хорошо, что такое плохо и как сообщество оптимизаторов оценивает тот или иной феномен" - то это не повод лепить минусы в морду.

Спасибо, анонимные "воспитатели".

6666:
Поехать морду набить.

Это не наш метод. Я вот думаю, сразу прокурору штата, который Attroney General, стучать или PayPal все-таки умеет защищать доверившихся ему продавцов.

alexspb:
пару строк в коде написать...

Нет в мире совершенства: одни не умеют дописывать "пару строк в коде", но готовы заниматься каталогами которые принимают deep links, другие - умеют "пару строк в коде" писать, но не имеют желания заморачиваться с бесплатными каталогами, которые принимали бы deep links...

Webdemon:
Почему не могут? Проверка ведь идет по домену, а не по точному адресу. А если не так, то просто пишете функцию, которая выделяет из url-а домен и проверяет его наличие в базе и вставляете в код каталога.

Понимаете, в SEO люди приходят с разных сторон. И я давно (лет 15 уже) не являюсь программистом. Заказывать скрипты на стороне (особенно для бесплатных каталогов) у меня тоже желания нет. Сейчас делаю каталоги на CNCat, а он кривовато определят повторные вхождения (иногда прямо пишет при показе новых предложений "этот URL уже находится в каталоге", иногда "duplicated links" надо кликать). Но разные страницы одного и того же домена CNCAT "свалить в одну кучу" не умеет. Если известен какой-то другой бесплатный скрипт, умеющий в админке сообщать о всех страницах с одного и того же сайта, находящихся в каталоге - это было бы решением.

Ank:
опять крайности. А почему один? Или надо читать как "один линк на ОДНУ внутреннюю"?

Нет, имеется ввиду, что каталог будет готов поставить один линк (как угодно глубокий) на один домен.

Почему только один?

А Вы представляете сколько умельцев просабмиттят десятки или даже сотни страниц со своего домена в один и тот же каталог, если откроется такая возможность?

И как все это обрабатывать и отслеживать?

Сейчас каталоги принимают обычно один линк на домен (морду), и то приходится просматривать сотни сайтов в день.

Поэтому я хочу принимать тоже только один линк на домен, но разрешить ему быть внутренним. Проблема однако возникает в том, что для большинство скриптов каталогов не могут определить, что адреса вида http://www.domain.com/page1.htm и http://www.domain.com/page2.htm имеют общие свойства.

И одновременно те же самые скрипты каталогов всегда подскажут модератору, что какая-либо морда ( http://www.domain.com ) ведена многократно.

Поэтому в настоящее время, если я начну принимать внутренние ссылки, процесс наполнения каталога станет неконтролируемым (раз в несколько дней мне будут подсовывать внутренние ссылки с одних и тех же сайтов, пользуясь тем что модератор не может держать в голове список уже принятых в каталог сайтов, и я не буду иметь простых средств для чистки).

А с помощью каких скриптов можно модерировать "deep links"?

Была у меня идиотская мысль создать каталог только для внутренних ссылок. А потом подумал: с какого-нибудь одного и того же домена мне засабмиттят штук 50 разных внутренних линков, и никак их не отследить с помощью, например, CNCat'а.

А вот если бы была возможность автоматически отслеживаать разрешать только один внутренний линк на домен...

А что общество думает вот про такую дурацкую идею: все страницы (около 50 штук) превратить в субдомены. Гугл вроде морды никогда в supplemental results не загоняет, а ведь любой субдомен может оказаться мордой сайта.

SellingFeis:

Я попробовал на конечных страницах(на которых рисунки и которые не ведут уже никуда) все навигационное меню вынес в отдельный java-script файл, и подключаю его на страницу java-script -ом. Этот отдельный файл гугле естественно не индексирует на странице, описание к картинке оказалось достаточным текстом на странице и googlе потихоньку расклкеивает страницы

Правильно ли я понял, что Гугл учитывает соотношение количества слов в ссылках (anchor text) и количесво слов обычного текста на странице? Если количество текста в ссылках "перевешивает", то страница считается как-бы созданной для ссылок и улетает в supplemental results?

Геннадий0:
Вероятнее всего оказывает влияние:
- PR страницы на котрой картинка
- имя файла картинки (ключевики)
- alt картинки (ключевики)
- текст рядом с картинкой (ключевики)

PR страницы, IMHO, никак не влияет: у меня есть страницы выпавшие из индекса гугла (т.е. неиндексированные), на которые массово люди приходят с Google.Images

Имя файла картинки и alt картинки - само собой считаются оптимизированными.

Однако при прочих равных одни попадают в картиночный СЕРП, а другие - на задворки.

Пилот:
Благодарю!



Судя из классификации Дмоза это две разных тематики
http://dmoz.org/Computers/Programming/
http://dmoz.org/Computers/Software/
Так что решать вам, переименовать либо просто дабавить еще категорию.

Хотелось бы все же, как более таматичную, для темы "Shareware & Freeware" добавиться в "Software".

ДМОЗ копировать не планировалось, однако буду иметь ввиду.

Сейчас новые разделы второго уровня добавить не могу - хочу выдерживать одинаковое число субкатегорий во всех категориях первого уровня.

Новые разделы сделаю, как только сложится необходимость расширить и другие категории первого уровня (думаю это произойдет через 2-3 дня)

Всего: 247