martiniskon

martiniskon
Рейтинг
42
Регистрация
11.12.2008

Господа, текста на сайте весьма мало. Буквально 2-3 предложения на каждый товар. Не получается выжать больше. От каталогов (можно на попасть на г.вно-каталоги) и закладок (не приносят бэки) пришлось отказаться.

Я так понимаю, остаются покупка постовых в блогах по схожим тематикам, покупка ссылок и статей - единственное, что остается? Что будет эффективным? На что не стоит тратить время?

Ой, и самое главное. Цель: вылезти в топ яндекса и гугла по НЧ.

Aqaus, кстати, да. Очень много прочитал информации годика за 2 в блогах о каталогах. Одни - наращивают пузомерки, вылезают по НЧ. А другие - ни то и ни другое + бан или др. санкции. Причем фишка в том, что сегодня этот каталог для "Яндекса" - белый, а через некоторое время - серый/черный. И, естественно, ссылки с таких каталогов только ухудшают положение сайта для поисковиков. Т.е., сегодня мы регим сайт в базе из 12 000 каталогов, через несколько месяцев, 300 из них станут черными, а если с них еще и бэки, то труба.

Я так понимаю, что дело не стоит риска?

Marinka, конечно. Кстати, вы мне подали идею создать вопрос №4. :)

Плюсанул за полезный пост. Есть еще несколько вопросов, нумерация новых вопросов, не имеет отношения к предыдущим.

1) Насчет "Google (инструменты для веб-мастеров)". Когда я добавил http://domain.com и http://www.domain.com и указал, что первый является основным, то при заходе по нему в "Настройка индексирования" -> "Файлы sitemap", там уже лежат 2 найденных: sitemap.xml и sitemap.xml.gz. Причем они лежат в "Показать отправленные -> Все (2)". Я так понимаю, что их автоматически нашел робот. Если мы выделим их и нажмем "Отправить еще раз", то эти же 2 сайтмапа тут же появятся еще и в "Показать отправленные -> Моих (2)". Не понимаю, для чего создан пункт "Моих", если уже есть пункт "Все"? Как я понял, система понимает, что сайтмапы во "Все" и сайтмапы в "Моих" идентичны. И потому 4 (sitemap.xml+sitemap.xml.gz+sitemap.xml+sitemap.xml.gz) в сумме сайтмапа равны двум (sitemap.xml+sitemap.xml.gz), но для чего этот мнимый дубляж?

2) Кстати, sitemap.xml.gz это сжатая карта сайта, которая читается некоторыми поисковиками. Вот какой вопрос. На данный момент у меня:

- В "Показать отправленные: Моих ‎(2)". Отправленные URL: 318. 314 URL в интернет-индексе. Т.е. на каждый сайтмап по половине. (отправленные URL: 159. URL в интернет-индексе: 157).

- В "Показать отправленные: Все (2)". Отправленные URL: 318. 314 URL в интернет-индексе. То же самое, что и выше.

Если я из "Показать отправленные: Моих ‎(2)" удалю sitemap.xml.gz, то сразу останется "Показать отправленные: Моих ‎(1)" и sitemap.xml (отправленные URL: 159. URL в интернет-индексе: 157). А вот в "Показать отправленные -> Все (2)", так всё и останется без изменений. И оттуда, как я уже говорил, невозможно удалить сайтмапы, т.к. видимо их находит робот, т.е. только удалением файлов с фтп. В общем, нужно ли удалить sitemap.xml.gz из "Показать отправленные: Моих"?

3) Есть ли у Гугла поддержка вебмастеров? Типо яндексовского Платона Щукина?

4) Насчет Яндекс.Вебмастер. Где там указать, что домен http://domain.com является для нас основным? Или это делается только указанием HOST в robots.txt?

Спасибо, что откликнулись.

MASTAKILLA, пожалуй, именно так и сделаю.

NiceBoy, как и сказал MASTAKILLA. :)

C Днем Рождения! Всяческих успехов!

Кстати, совсем забыл упомянуть насчет яндекса. Сначала я выключил сайт. Было страниц в индексе 300, а после выключения стало - 150. Потом черт дернул включить сайт, все удалить с фтп, поставить robots.txt с запретом индексации для всех роботов. В итоге спустя пару дней, опять 300 в индексе.

Спасибо всем, кто отписался, уже рассмотрел предложения и решу. Однако, не откажусь еще от предложений. Сервер пока не рассматриваю, т.к. проект с нуля и переплачивать долгое время за низкую посещаемость пока не вижу смысла. Подойдет shared или vds.

Demotix, хочется хоть как-то обезопаситься от левых абуз. Рассмотрим на примере ru-talk'a. Все изображения и файлы хранятся на ФХ и ФО, соответственно. Можно сказать, что он является лишь источником инфы и у себя ничего не хранит. Однако, как уже многократно обсуждалось здесь, что это не является 100%-й гарантией, что правообладателей это остановит. Пример тому: постоянно закрываемые трекеры, сайты. К тому же стоит учесть, что не мало хостеров (не абузоустойчивых) не будут разбираться, правообладатель это или просто кто-то веселится, рассылая абузы, а просто попросят сразу удалить материал, в итоге хостерам когда-нибудь, да надоест получать абузы и попросят съехать. Подобные темы на серче я уже видел. Насколько я знаю, абузоустойчивые хостеры не реагируют на абузы, пока не придет постановление суда их страны, естественно, если материал не последняя чернуха.

Прошу исправить, если где-то не прав. :) И жду еще предложений.

По хуизу смотрел, но сначала не заметил.

Не спорю, что, если надавят на регистратора, то ничего не поможет. По поводу этого всё чаще и чаще новости появляются.

Тогда для наглядности приведу примеры. Давайте, возьмем, например, проблемные форумы и рядом регистратора домена:

Planetsuzy - enom.com

Fritchy - namecheap.com

ForumOphilia - dovedo.com

Насколько я знаю, данные регистраторы даже не являются абузоустойчивыми. Мне очень слабо верится, что правообладатели не катают жалобы сотнями на них каждый день. В чем парадокс? Кто-нибудь может объяснить?

Не спорю, что это скорее утопия. Все взламывается. Но в моем варианте это что-то из оперы "доставить хотя бы немного проблем". Я нашел несколько подходящих вариантов, но большинство из них уже закрыты и не поддерживаются. Очень хороший вариант ebook maestro, но там по-ходу нет привязки к железу, однако, есть история активаций ключа.

Всего: 80