vlkff

vlkff
Рейтинг
22
Регистрация
01.05.2008
WebDiz7:
Дык у меня много статей, а. следовательно и заголовков... и еще есть на странице зеголовки разделов - что с ними?

Статей много, ну и что? Вы же не будете эту страницу продвигать по названиям статей - для этого лучше подойдут страницы статей.

А на странице со списком статей можете всё что угодно писать, если страницу не двигаете, только без запретов

B3CH3D:
Надо выносить css-файл и запрещать его к индексированию.

ПС индексируют CSS ??

Помоему интерфейс типа http://quintura.com/ , когда система сама предлагает варианты с уточняющими вопросами, будет более полезен (не все знают наперед, что ищут или не знают как уточнить) и более быстр.

Спасибо за ссылку - не совсем то что искал, но сервис, что вы подсказали, пригодится - благодарю!

gruz-trans, webmaster.yandex.ru, как и ГуглВебмастерс даёт список ссылающихся страниц, без статистики по ним. Сводная статистика там весьма общая - количество ссылок и количество сайтов.

Как Вы с помощью webmaster.yandex.ru узнаете, сколько сайтов, с какими параметрами и по каким анкорам на вас ссылаются? Смотреть вручную не вариант.

Речь идет о сервисе, в который можно было бы загнать список ссылающихся url-ов и получить сводную статистику, типа:

киворд1: PR0 - 1000 ссылок | PR1 - 500 ссылок | PR2 - 200 ссылок ...

киворд2: PR0 - 1000 ссылок | PR1 - 500 ссылок | PR2 - 200 ссылок ...

Что касается Yazzle, насколько я понимаю, она так же не дает готового представления о ссылочной структуре. Кроме того, она анализирует ссылки из выдачи, в то время, как для своего сайта можно использовать для анализ результат того же webmaster.yandex.ru, что будет быстрее и качественнее.

-scream-:
mrFatCat, а каким образом вы убираете их из индексации поисковиками? http://webmaster.yandex.ru/delurl.xml вот по этой ссылке вроде как удаляются только страницы, возвращающие 404 ошибку, или запрещенные в robots.txt

Вероятно, если Вы можете запретить к индексации страницу в интерфейсе яндекса, запретить её к интексации в robots.txt, тоже не составит труда ☝

Существует еще один простой способ - распознавание отсканенных текстов.

Ничего не мешает. Но чтобы загрузить людей полностью, столько пока нет.

Многие сайты СМИ работают на системе управление содержимым Drupal. Это бесплатная, серъезная система, ориентированная на социальные сайты и сайты СМИ. Например, internet.ru - один из крупнейших интернет-СМИ в рунете и много других работают именно на это системе. В ней отлично реализована таксономия (категоризация материалов сайта) - рекомендую использовать этот движок, если не найдете готового решения. Создать на нём нужный вам сайт будет проще и быстрее, чем на любой другой.

Наша команда сейчас заканчивает сайт на Drupal для кафедры терапевтической хирургии Донецкого медицинского института - могли бы взяться за Ваш проект.

Наш сайт

Коды возвратов по страницам, кроме главной, смотрел? Там 404-х нет?

123
Всего: 21