iSeller

tw: A_Seller
Рейтинг
90
Регистрация
19.12.2011
easywind:
У меня нет вообще сайтов. Но как правильно пользоваться файлом роботс, я и без них знаю.

Угу, теоретиков тут и так хватает. В теории Гугл ждет живых естественных ссылок, а откуда им браться когда нет посетителей? Да-да в эдвордс, это же так приятно, отдавать свои деньги Гуглу. Мы же знаем, это Андрей Липатцев сказал. Вот только я имею собственное мнение по этому поводу....... Кстати если задать вопрос твоему Богу, в чем выигрыш пользователя от эдвордс, вразумительного он ничего не ответит.

У меня больше гугло-лайков чем у конкурента, однако конкурент в топе за счет ссылок, я в попе за счет ручных санкций, за те же ссылки. ))) Чудеса, правда?

Что бы больше не выносить мозг себе и товариСчу easywind. Что такое Robots.txt. Черным по белому написано, "для управления индексацией сайта". А вот учитывает его Дудл или нет, это уже другая история. Достаточно что его учитывает и избавляет меня от проблем Яндекс. То что Дудл давно хочет стандартизировать интернет под себя, ни для кого не секрет, видимо кроме easywind. Больше мне добавить нечего.

---------- Добавлено 15.02.2014 в 22:35 ----------

foxi:
послушай гугла и сделай наоборот. на личном опыте не раз убеждался. роботс запрещает контент выкладывать в индекс. а страницы гуглом вполне посещаются. недавно снова с этим сталкивался. был технический домен с кучей страниц, на которые есть ссылки с других сайтов. в роботс закрыт, в вебмастере версия роботса актуальная с запретом. а гугл эти 100500 страниц и дальше мучал ежедневно, пока его хтасесом не заблочил.

В Гугл robots, не панацея от таких страниц, на самом деле сами Гугловцы не могут сказать, как избавиться от несуществующих или ненужных страниц. Более того бот Гугла иногда сам додумывает эти адреса, из чего он исходит не известно. Все мои вопросы, касаемо выдуманных адресов, адресованные Липатцеву, были проигнорированы, у него нет ответа на эти вопрос. В видео видно, что ответа опять на указанный вопрос нет, лишь рекомендация удалить все в ручную. Его предложение создавать роботс заранее, тоже может быть мною опровергнуто, буквально месяц назад, на хостинг был залит абсолютно новый сайт, на абсолютно новый домен, без истории, с корректно составленным robots.txt. Однако утверждение, что в данном случае Гугл должен был все правильно понять и не индексировать страницы фильтра, было провалено. Гугл проиндексировал все и указал что доступ к контенту запрещен в Robots.txt, ну и для наглядности сам Robots.txt закинул в дополнительный индекс. Связать это с ошибками движка не могу, два сайта, два разных движка.

easywind:
в чем бред? Я Вам привел четкий пример, что роботс работает. В ответ только "покажи сайт" слышу. Вы просто не умеете файл роботс готовить, как и писал уже. Не пыжились бы уже.
Вот Лору задал вопрос он и пропал. И правильно он сделал, ответить то нечего.

В вашем примере явно видно что Дудлу плевать на роботс. Мне надоело говорить с Дудлолизом, когда появятся аргументы и пример, как при помощи роботс был закрыт доступ к странице, тогда и поговорим. А пока ваша теоретика основанная на правилах Дудла мне не интересна. Все что вы во мне вызываете, это умиление, ваша слепая вера в Дудл и поклонение, иногда даже омерзительно. Есть такая фраза "Хоть ссы в глаза - все божья роса", она очень точно характеризует вас. Извините если обидел, просто надоело с вами спорить, говорю как есть.

P.S. Хоть Ортопеду задавайте вопрос, мое мнение это не изменит. 😂

easywind:
iSeller, переходим на личности? Аргументы кончились?
Я вижу какой у Вас опыт. С роботс особенно :)

Опыт достаточный, что бы не слушать бред вроде вашего. Приведите пример удачно продвинутого сайта, вами лично и следующего правилам Дудла.

amsea:
Около полугода назад возникла у нас с женой сделать интернет магазин женской одежды. Продукцию решили выставлять только российского и белорусского производства. В день посещаемость не ниже 30 человек, но вот никто не покупает. Всем все нравится и модели и цены, но покупок нет.
Я в этом новичок, может что-то упускаю.
Буду благодарен за любую консультацию!

---------- Добавлено 10.02.2014 в 10:58 ----------

Забыл ссылку указать))
amsea.ru

Если бы вы написали посещаемость не ниже 300 еще можно было бы обсудить. Увеличивайте посещаемость, это единственное что можно посоветовать. Как уже вам решать, директ, эдвордс или поиск. Попробуйте начать с наполнения сайта текстами.

У меня магазин на ocstore, тот же опенкарт, только русский. Странно, но ни каких описанных тут на форуме проблем не имел. Может надо его просто настроить.

easywind

Собственного опыта 0, а советы даете как профессионал в СЕО. Может хватит верить в то что вы приносите пользу и чего то понимаете в продвижении. 😂 Покажите хоть один свой сайт в ТОП, который сделан по рекомендациям Дудла. Я хоть имею опыт по своему сайту, но не лезу с глупыми советами, типа со знанием дела.

OldRocker:
У Вас, эвфемистично выражаясь, практического опыта маловато ;)

Лично я с проблемой наплевательского отношения к robots.txt, равно как и к тегу "noindex" сталкивался как минимум раз пять. Последний раз совсем недавно.

Так что не надо так ръяно утверждать обратное. Может получиться неудобно (с).

Реагируйте спокойно на человека, он думает что лизание у Дудла дает + по позициям. Спорить с ним нет смысла. Все что делает Дудл, в его понимании правильно. 😂

---------- Добавлено 14.02.2014 в 19:49 ----------

easywind:
iSeller, повторюсь для Вас лично и для тех кто так считает
http://webimho.ru/topic/7817/#entry138086

Да спасибо, я вас давно уже понял, не надо ходить хвостом по форумам и пытаться меня убедить, что красное это вовсе не красное, а зеленое.

OldRocker:
Ну вот... заинтриговали... Теперь придется мучаться, но смотреть 🙅

Специально просмотрел, 26 минута, но не тратьте время. Там говорят что если изначально закрыть в robots.txt страницу или директорию, то Гугл ее не посетит, это ложь, не правда, гон, большой обман, выбирайте сами что вам больше нравится. Недавно был запущен региональный интернет-магазин. Изначально на домене висела заглушка, с одной страницей, домен новенький, без истории. Сайт делался локально, когда сайт был доделан, был выложен на хостинг, robots был изначально подготовлен и выложен вместе с сайтом, Гугл сожрал все страницы, все что было закрыто в robots, и сам robots, попало в дополнительный индекс. Яндекс с первого апдейта выкинул все страницы закрытые в robots.txt, и поставил в индекс только разрешенные. Так что если вам есть чем заняться, можете не смотреть видео, ничего нового и полезного там нет, одна ложь. Все эти видео-встречи ни о чем.

Всего: 1166