me_alex

Рейтинг
29
Регистрация
16.10.2009

Paleo, кажется в ситуации с "10%"-ами вы глупо поступили.

Уникальность 100% важна в момент добавления статьи на сайт.

А при анализе проиндексированной статьи, важна не столько уникальность, сколько то, на какой позиции будет находится сайт, если искать фрагмент текста. Т.е., кого считают первоисточником.

И действия того сеошника с этой позиции объяснимы.

А для сайта крупного издательства наличие плагиата вполне понятно, - не будут же они каждый раз контент переписывать, когда воспользуются их материалом?

Поторопились вы с выводами

DenisVS:
только не переборщите :)
Максимальное сжатие может положить навзничь неслабый процессор. Ориентируйтесь на 4-6 из 9.

Если речь про ob_gzhandler, то по-моему, лучше сжимать сервером "на лету" (mod_gzip). Но доподлинно не знаю, ob_gzhandler не пользовался.

Чтобы уменьшить нагрузку на сервер, можно предварительно посжимать часть css и js файлов (которые редко редактируются), - сервер будет сразу цеплять предварительно сжатые файлы.

В первую очередь пожмите траффик (если еще этого не сделали) - будет загружаться быстрее в разы: http://schroepl.net/projekte/mod_gzip/config.htm

Для оптимизации загрузки информативно и полезно это дополнение к Firefox: https://addons.mozilla.org/ru/firefox/addon/yslow/

для внешних скриптов старайтесь использовать асинхронную загрузку, где возможно.

некоторые внешние скрипты иногда можно (и нужно) загружать со своего сайта (тупо скопировать на свой хост и загружать оттуда).

а иногда, наоборот: http://api.yandex.ru/jslibs/

Если все так серьезно и важны доли секунды - почитайте это: http://webo.in/articles/habrahabr/56-non-blocking-javascript/

P.S.

Очевидная вещь, но вдруг кто-то не знает: в адобовских фотошопе и иллюстраторе есть функция "Сохранить для Веб и устройств".

Очень качественное и эффективное сжатие графики. Например, если берешь картинки для сайта из буржуйнета, практически всегда с помощью этой функции можно сжать картинку в 1,5 - 2 раз без потери качества.

P.S.S.

И еще

Если движок пишете сами, не помещайте запрос к БД внутрь цикла. Лучше сначала выгрузить запрос целиком в массив, потом обойти его.

Чем меньше запросов к БД - тем быстрее.

добавляйте название домена/сайта в анкоры/околоссылочный текст, еще лучше в подписи статей, которые размещаете на авторитетных сайтах.

Willie:
Тпе в этом разделе нет редактора. А это значит, что заявка будет болтаться где-то, и ее даже никто не рассмотрит.

Но есть редактор вышестоящего раздела

Если помимо "Поисковой SEO-оптимизации сайтов", разбираетесь в бухучете (а еще лучше имеете практический опыт), и что, не менее важно, по натуре альтруист, подавайте заявку на редактора.

Скорее всего в бухучет

http://www.dmoz.org/World/Russian/Бизнес/Бухгалтерский_учет_и_аудит/

Отдельного информационного раздела вроде как и нет.

Разделять же на подразделы (налоговый, управленческий и т.д и т.п.) можно, когда есть что разделять.

И по поводу отсутствия крупнейших сайтов - правы.

Например, этот ресурс - http://snezhana.ru/

Klacon:
А гугл это такой поисковик который ищет только по тем двум процентам информации которая называется интернетом

Т.е. остальные 98 это облако? Можно источник?

Анекдот вспомнился эпохи win95-98

Лежат два программиста на берегу моря, один другому:

- Ты только посмотри, какие красивые облака!

- Да, уж это они умеют...

Doctorbelov:
то есть будет относительно постоянный рост кол-ва внешних ссылок.

А вы определитесь, для чего добавляете туда свой сайт. Если заработать денег, то рост ссылок должен радовать.

Если наполнить сайт контентом, то большого роста не будет. Тематичных качественных статей с тематичными ссылками - процентов 60, ИМХО.

И рост также зависит от вашей цены и качества площадки.

Всего: 314