And-rey

Рейтинг
78
Регистрация
01.04.2012

Да-да.. благодарю за ряд советов, оставленных выше!

Karpet:
Зачем Ваньку валять? Возьмите модуль для карта платный за недорого. Там будет всё. У меня там даже быстроробот торчит из за модуля. Тока я ничего не пишу постоянно и он сваливает через полторы недели.

Отлично, что поделились опытом, после установки статейного места на сайте. Видел этот модуль - opencartadmin.com/seo-cms-pro-2.html хотели даже ставить. Он конечно идеально становится на опенкарт, и инет-магазин может превратится в посещаемый ресурс, из-за интересных статей на нём..

Но у нас там задумка немного другая: блог со своим меню и рубриками/категориями. Дизайн схожий, но "отдельная атмосфера". В перспективе планируется как отдельный статейный проект, но повязанный с магазином.

siv1987:
- robots один для всех в корень домена. Запреты указываются для конкретной кмс. Если для блога, то указывается конкретно адрес Disallow: /blog/*anything
- htaccess отдельный для каждой кмс. Блога в папке блога, сайта в корень сайта.

Спасибо на этой рекомендации! Полезно знать на будущее, как составляется "роботс" для выше описанного в топике случая - когда вторая CMS лежит в корне сайта где и первый движок, но размещена в отдельной своей папке.

SeVlad, Благодарю за ответ и наводку ссылками.. кароче я чего-то наворотил по-ходу)

Если бы СMS Opencart поддерживала в себе блоговый функционал, то такое допустимо, что все статьи идут строго из папки "../blog/". Как пример, Джумла - "виртумарт" делает из неё инет-магаз + встроенный дефолтный функционал "статьи с анонсами на главной". И оно всё доступно из папки в корне сайта, вроде из "content".

А так, подводных камней повылазит прилично, если внутри опенкарта, там в отдельной папке ставить другую CMS. ))

В таких случаях, идеально только на поддомене организовать задуманное, где страницы "крутит" уже другой движок -

blog.myshop.com

forum.myshop.com

Это уже совершенно новый сайт для ПС, который к примеру нужен доступным с ввв в начале- www.blog.myshop.com, и так далее по остальным предпочтениям в robots.txt. И что немаловажно в моём случае: всё индексируется независимо от того, если даже второй уровень домена общий.

Какой-то очередной баян про ранжирование в гугле по сотням пунктам, или это традиция такая - каждый год выкатывать портянку про 200 или 100500 факторов ранжирования? =) Кстати, когда кто-нибудь выложит 800 обещанных факторов ранжирования в Янднекс?

п.с. - https://devaka.ru/articles/200-google-factors

aldous:
...
Удалённая страница должна отдавать 404 и всё. Больше от сайта ничего не требуется.
...

О каких удалённых страницах, тут у вас речь?

Есть в индексе страницы, которые нужно только из ПС удалить. С этим у самого проблема. А на сайте они существуют "в природе" и будут всегда существовать: пагинация, сортировка, результаты поиска, варианты/комбинации страниц с параметрами от фильтра в конце урл. Тут по-неволе приходится их блокировать в robots. Надо ли такие страницы на 404 error направлять?

Если через x-robots tag блокировать - так Яндекс не поддерживает этот способ. Или поддерживает уже?

Все прошли мы через это, что в индекс попадает пагинация, сортировка и страницы с параметрами от фильтра, результаты поиска... и иногда наступаем на те же грабли- забываем закрывать их со старта.

Речь о чём. Просто при самом старте проекта нужно было максимально ограничить в "роботс" доступ к тем страницам, которые будут как дубли. Аналогичная ситуация у меня с одним магазином. Около 3000 товаров, и на всё это залетели в индекс страницы с вариантами когда "по фильтру" выбирать =)

Вот сидим тоже ждём 2 месяц, когда поисковики повыплёвывают из себя эти страницы, закрыв дорогу к этим страницам в "роботс" Тут нужно просто оживить проект, обновлять новыми статьями, менять на главной что-то.. и постоянно скармливать новым файлом "sitemaps.xml" Гугл и Яндекс,

И поверить еще в "гуглвебмастере" стоит ли дополнительный запрет в разделе "Параметры URL" на нежелаемые страницы с параметром: route, product_id, page, sort, order, path....

п.с. ответил в этой теме, так как тоже интересно, как долго могут быть в результатах индекса страницы, запрещённые уже позже в "роботс"

Scaryer:
And-rey,
Посмотрите группы по Гоа. Неужели, это ваша дочка из второго класса берет туда в декабре дешёвый билет, а потом сдает/снимает коттедж?

Посмотрел первые 10-15 сообществ по ГОА: https://vk.com/search?c%5Bq%5D=%D0%93%D0%9E%D0%90&c%5Bsection%5D=communities

И в таких неактивных сообществах... видно и невооружёным глазом, что нет смысла там и рекламироваться. Потом идём сюда - http://sociate.ru/spots/view/ и вау, вроде движуха.

Но та самая движуха там создана из-за школоты. И это делали админы не один год, дабы потом ценник взвинчивать до небес. Мол, смотрите: у нас 3 млн. подписчиков.

Эти команды и так прописаны в моем robots.txt, но страницы, которые уже попали в индекс гугл роботсом не выгонишь. Для этого есть X Robots Tag. Но вот что-то не складывается

Понятное дело, что из индекса тяжело вытравить то, что подолгу сканировалось и добавлялось в индекс. В таких случаях надо делать, чтобы бот зачастил на сайте. Добавлять новые материалы, изменения в перелинковке, сигналы из соцсетей (твитер на 1 месте) и постоянно скармливать гугла свежим сайтом "sitemap.xml"

Не понимаю, зачем такие замудренные обходы функционала/возможностей файла "robots.txt" - делать запреты вообще на стороне сервера, используя X-Robots-Tag... тем самым надеясь ,что с помощью данного метода - мигом всё удалится из индекса. Где гарантии или проверка на то, что заголовок отдается нужный от htaccess? Как-то рисковано )

по идеи, у вас там типчный сайт/блог на вордпресс(наверное). Многие с таким сталкиваются, что ошибочно настроен был роботс, полезли дубли в индекс... Как оживите сайт, так всё и поменяется там с индексацией.

И как дела обстоят на сегодня с Яндексом, когда применяется X-Robots-Tag? Тот самый момент из статьи, что по ссылке тут в комментах топика выше:

Но тут есть существенная печалька — Яндекс до сих пор не поддерживает данный метод, хотя народ давно уже просит. Так что полностью без robots.txt все же не обойтись, но можно использовать User-agent: Yandex, чтобы не затрагивать Google.

Вот ,немного по теме топика, баянец по рекламе приложения одного🙄

цитата из статьи, которая по ссылке тут ниже: "....вообще реклама в пабликах весьма сомнительная история, так что подумайте и посчитайте 10 раз, прежде чем проводить рекламные кампании в пабликах...."

"Кейс: насколько эффективна реклама в паблике MDK" - http://siliconrus.com/2014/06/mdk-ads/ (ссылка - не спам/реклама!)

п.с. конечно, там с самим оформлением поста лоханулись и заказчики и мдкашники, но... А какая возрастная аудитория у ВК, кто там вообще есть/сидит - никто из вас спустя 3 года не задался вновь этим вопросом? Я как владелец пару пабликов на ВК скажу честно: как сидела там детско-подростковая школота, так и сидит дальше, которая репостит мои картинки подписанные крупным шрифтом Impact.

А когда париходят по заявкам на рекламу кто-то, то после постинга, они больше не приходит еще раз. потому что у детей никогда не было денег на смартфоны в 200$ и надобности в юридических услугах по региону. Вы думаете 300K-1200K подписчиков в бизнес-цитатниках - это платёжеспособная аудитория какая-нибудь?

Да ну бросьте. Там наши сыны и дочки от 2 класса по 9 )))

самое главное для тех, кто готов рекламироваться с помощью smm - это выбор правильной аудитории, возрастной. Обязательно требовать от smm-шника статистику пабликов, да и вообще самой социальной сети. Кто где сидит, какого возраста - это знают чётко smm-шники. какие тематики лучше гнать по ВК, а какие по инстаграму. Но ведь не каждый из них об этом видать доводит к сведению об этом, от того сложилась спустя время, что смм - это не совсем и эффективно.

_______________________

Konceptovskiy:
Так и не ответили smmщики, какие главные задачи должно решать smm, что является приоритетным в smm, а только абстракции. О боги! Они сами себя не уважают 😂

Вы видите, даже на словах гипотетически не могут дать ясное объяснение.

Там выше было правильное сравнение smm со "спецами" по ведению контекстной рекламы. Главное заключить договор, и прогнать новый заказ-проект, по своей старой схеме-каналам. а если чего не так, то буркнут заказчику в конце, что ваши товары - реальное УГ, из-за которого ноль конверсии.

Какую давнюю тему, вы тут вытащили.. наружу) Но интересно, однако...

Для обычных граждан - это вообще ни о чём. А для "наших" кремлёвских - "Почему бы и нет?!"

Это сделано для того, чтобы пост от блогера, в котором он выльет в сеть явно компроментирующую чиновника информацию - можно было удалить из поиска, лично самим же чиновником, после составления длиннющего письма в Тех-поддержку.. в стиле "это всё не правда, он сам ко мне пришёл... я ничего не крал, ложь - Удаляйте запись из индекса"

=))

Nikita P.:

............
................

====саппорт====
Прошу прощения, я невнимательно прочитал Ваш вопрос, поэтому ответ дал некорректный.
Для региональных поддоменов Вы можете оставить одинаковое описание услуг, это не должно оказать негативного влияния на их ранжирование, благо они (региональные поддомены) и в выдаче пересекаться не должны будут.

Итог: Сделал поддомены. Контент не менял вообще (кроме адреса в шапке\футере и контактах). Сайты отлично продвигаются и ранжируются в своих регионах.

пфф.. Если на сайте блок анонса статей (где от 500 до 700 символов в них) будет открыт для индекса - то это всегда считалось дублем начала страницы, где статья там дальше на сайте полностью изложена. А теперь: "...можете оставить контент одинаковый..... благо они (региональные поддомены) и в выдаче пересекаться не должны будут."

=) так чего, можно теперь на поддомены тащить контент с соседнего сайта?

Не удивлюсь, если Гугл сочтёт за типичный копипаст одинаковое описание услуг на основном домене, и на поддомене (а это уже другой сайт в интернете, получается что с "ворованным" контентом)

Возможно такие манипуляции со старыми текстами/описаниями, снисоходительны для сайтов от 3-5 лет, с ТИЦ и норм ссылочной массой. А стоит подобное осуществить для сайта от 9 до 12 месяцев, и.. ожидай "того самого"...

Всего: 439