ИМХО, если у Вас возник подобный вопрос, то лучше написать самому. Чтобы разобраться с вопросом Вам понадобиться не больше 10 минут + минут 30 на написание скрипта. Да, действительно генерится xml-формат, который состоит из шапки и нескольких "итемов" (зависит от того сколько, например, новостей Вы хотите отдавать в rss). Возьмите любой сайт, где есть rss, пусть даже этот, и попросту посмотрите на иcходный код. Например, для этого сайта основной rss - это . Открываем ссылку, видим список последних постов, смотрим на "Исходный код страницы" и видим к чему надо стремиться :)
kaldun, а Вы читать умеете? В первом посте ясно все написано.
Или Гугл уже банит отдельные компьютеры?:D
Во-первых, Вам может просто казаться, что Вы никаких настроек не меняли, т.е., как антивирус, так и фаервол мог скачать не совсем «правильное» обновление из интернета.
Что я об этом думаю, все это ИМХО, конечно, но попробовать стоит. Когда-то давно у меня не совсем корректно загрузился show_ads.js. В результате также не стала отображаться реклама. Дело в том, что этот файл хранится в кэше. Если у Вас была проблема с антивирем/фаерволом, то этот файл и у Вас мог загрузиться некорректно, причем все это могло происходить для всех испытанных Вами браузеров. Попробуйте очистить кэш любого из браузеров и с отключенными антивирем и фаерволом глянуть на свой сайт. Может, поможет.
Крайне не рекомендую использовать nofollow для внутренних ссылок. Если необходимо, лучше воспользуйтесь robots.txt.
В доказательство привожу статью с сайта Devaka. Текст здесь.
А в инструментах для веб-мастеров смотреть не пробовали? ☝
Что-то народ развел здесь оффтоп на мое скромное замечание.
Речь идет не о занижении релевантности, а об одном из факторов ранжирования, т.е. при прочих равных условиях выше в выдаче будет более быстрый сайт. Не спорю, может и нет сейчас подобного фактора, но все к этому идет, во всяком случае, разговоры об этом идут уже почти год. Так или иначе, но введение экспериментальной функции "Эффективность сайта" это сигнал для нормального оптимизатора.
Как бы это объяснить попроще. Ну, допустим так… Представьте, что Вы очень ценный работник, приходите на работу, а шеф Вам говорит: «Представляешь, есть у меня мечта, чтобы интернет был быстрее, я тут даже сам простенькую прогу сваял…». А Вы ему на это: «Плевал я на Ваши мечты». Думаю, Вы понимаете, что после таких слов ценить Вас станут явно меньше.
На счет 12 секунд загрузки, то, конечно, ИМХО – это очень много, потому что это усредненное значение. В реале это значит, что у некоторых посетителей загрузка будет достигать 30 секунд (ИМХО, чтобы не было дополнительных вопросов). По-моему, не составит огромных проблем написать маленький трекер, который будет проверять, сколько человек загрузили начало страницы и сколько человек дождались окончания загрузки. Сможете прикинуть, сколько клиентов Вы потеряли.
А кто Вам сказал, что я работаю в рунете? И зачем моим иностранным реклам данные счетчика SpyLog? Для них это полная дикость. Если есть необходимость в какой-то визуализации, то данные GA их вполне устраивают. Кстати, если Вам нужен счетчик, который видят реклы в рунете, то можете использовать GA, на Хабре видел пример реализации. Хотя, на счет счетчиков частично согласен, все это весьма индивидуально, все зависит от пациента, главное, чтобы толк был.
И наконец, по теме. Вопрос был в том, нужен ли GA при использовании AdSense. Мой ответ абсолютно однозначен – да. Даже если в чем-то GA Вас не устраивает, то благодаря многим пользователям Google постоянно его развивает. Самое главное свойство GA – это то, что он связан с AdSense. Можно, конечно, обходиться и без GA, всего лишь год назад как-то ведь обходились, но зачем изобретать велосипед, если есть такой хороший инструмент. Возможностей у данного инструмента более чем достаточно, читайте литературу, и он будет для Вас действительно полезным инструментом, а не еще одним сервисом статистики.
Я разве такое говорил? Гугл просто ввел подобный фактор ранжирования еще по-моему в апреле прошлого года, т.е. как ни крути, а влияние есть и это объективная реальность нисколько ни от наших постов, ни наших желаний не зависимая. Насколько сильно это влияние одному Гуглу известно. Кстати, все это обсуждалось и уже не раз как на этом форуме, так и на других.
Есть такая интересная книжка Google Analytics 2.0 Анализ веб-сайтов от Джерри Ледфорд и Мэри Тайлер. Там есть подобный вопрос, "Почему Analytics?". Они же на него и отвечают:
Вопрос, конечно, спорный. Но дело в том, что при использовании Google Analytics Вы видите, какие страницы и какие ключевики приносят Вам деньги и можете, используя эти данные, добиться увеличения своего дохода. Попробуйте сделать это при помощи Спайлога или Рамблера :) . Кстати, на счет Спайлога. Жаба душила страшно, когда приходилось отказываться от страницы рейтинга с PR5, но все-таки, надо признать, что обычные счетчики - это уже давно вчерашний день. Учитывая же последние веяния (ранжирование в зависимости от скорости загрузки сайта) надо признать, что, чем меньше всяких счетчиков, тем лучше.
А Вы попробуйте, Гугл Вас не съест. Просто увидите все то же самое
Качнул, потестировал…Какое-то оно все недоделанное, ИМХО конечно.
Начать хотя бы с того, как прога парсит бэки Яху. Там же для придурков Яху сам предлагает tsv-файл, чтобы уменьшить излишний траф. Охрененно тяжелый формат. Нет, мы же умеем парсить, поэтому лезем во все 10 страниц выдачи. Ну, это мелочи.
Представьте нормальное желание просмотреть бэки конкурентов, чтобы PR был больше 0, и внешних ссылок на страницах было не больше 20. Для остальных ссылок меня абсолютно не интересовали ни наличие в DMOZ, ни возраст домена, ни другие параметры. Конечно, при помощи проги всего этого можно добиться, но сначала надо все отпарсить. Например, страницы линкопомоек, которые никого и никогда не смогут заинтересовать, считываются от начала до конца, а многие из таких страниц весят больше мегабайта. Зачем читать всю страницу, нормальная прога дошла бы до 20 заданных внешних, определила, что страница не подходит и бросила бы чтение.
Короче, взял 2 конкурентов по 1k ссылок. Результат работы проги – 200 мег трафа. Представьте толщину своего канала, и Вы можете узнать, сколько времени у Вас подобный парсинг займет. Если Вы даже вдруг случайно и обнаружите страницу, где есть возможность разместиться, то подумайте сами сколько времени/трафа/денег будет стоить для Вас подобная ссылка.
Думаю, что у проги потенциал есть, но за такое состояние платить 99 баксов – это несколько дорого.