Links Forever

Links Forever
Рейтинг
329
Регистрация
20.08.2006
WebAlt:
RedirectPermanent /old-directory http://www.domain.com/new-directory/

Писал уже, что не работает. Тогда mode rewrite не обрабатывает статью http://www.domain.com/new-directory/article.html

Dnn:
А смысл клеить?
Не проще роботсом запретить?

Не проще, обе страницы раскручены (в свое время не проконтроллировал) вот и хочу вес с одной перенести на другую.

T.R.O.N:
возможно для Вас это тайна, но это просто разные страницы... и яша их понимает как и должно быть..
они для Вас одинаковы только из-за всяких г...на настроек типа ЧПУ и т.д. Для самом аппача это разные страницы....
постарайтесь настроить все так, чтобы страницы отдавались согласно действующих правил:
/catalog1 - это файл
/catalog1 / - это папка

настроете, не придется танцевать с бубном...

Блин, я понимаю, что это разные страницы. Я вообще хочу их поклеить через редирект, но тут проблема с существующими настройками мод рерайта движка.

WebAlt:
Я на дле-форуме уже ответил, так не проще, зачем их клеить:
В robots.txt создайте инструкцию:
User-Agent: *

Allow: /catalog1/
Allow: /catalog2/
Allow: /catalog3/
Disallow: /catalog1
Disallow: /catalog2
Disallow: /catalog3

Ссылки без слеша со временем вылятят из индекса.
Только именно в этом порядке, директива Allow должна быть перед Disallow.

После того когда этот robots.txt закините на сайт удалите урлы без слеша:
Для Яндекса: Яндекс.Вебмастер Удалить URL
Для Гугла, в панели вебмастера - конфигурация сайта - доступ для сканера - удалить url.

На оба варианта страниц есть ссылки. Переделывать работу по оптимизации не охото т.к. сейчас все очень даже хорошо. А удалять раскрученные страницы, пусть и дубли - не правильно. Лучше передать вес от одной к другой.

_alk0g0lik_ добавил 18.06.2010 в 15:52

DyaDya:
Если сайт небольшой, то можно не обращать внимания, Яшка сам всё поклеит со временем.

Уже 3 года так. Просто раньше не обращал внимания, а сейчас ужаснулся происходящему :)

SEOForce:
Фантастика, за 3 года не склеить абсолютные дубли.

ну вот такая вот фигня, сам задолбался ждать, решил принудительно это сделать.

SEOForce:
Вообще, насколько я помню, этот вопрос решается в htaccess не 301 редиректом, а как-то проще. Вроде бы серверу дается команда выводить сайт со слэшем, если посетитель зашел по урлу без слэша, либо наоборот.

ну если через mode rewrite то не подходит, а другие мне способы неизвестны.

Кто -нибудь знает другие способы? веб-сервер апач.

AstrA:
он их сам склеит со временем, автоматом...

Прошло почти 3 года и не склеил, выдает как разные страницы на один запрос.

weee:
А вредят ли эти "моргальщики"? Как?

А как бы отнеслась ваша жена если бы вы ей пообещали купить шубу, а через час передумали бы. А потом опять пообещали, а потом опять передумали и т.д. Вот так же и ПС может отнестись к сайту с моргальщиками.

_alk0g0lik_ добавил 18.06.2010 в 00:35

den78ru:
статус sleep - new означает, что вы не были на странице уже купленных ссылок.

Не уверен. Все дело в том, что я из аккаунта практически не выхожу, и прежде, чем заняться слипами и еррорами, я всегда модерирую новые заявки, даже если их всего 1. Привычка за 3 года, понимаете ли. Да и мне тут ранее говорили, что статус sleep - new это новая ссылка типа "купил - заснул". Нафига мне такие?

Поделюсь свои опытом по избавлению от моргальщиков и купленных ссылок в еррорах.

1...3 недели назад меня в конец достали моргальщики. Открыл в своем ВМ аккаунте все слипы и увидел, что из ~200 ссылок 80 имеют статус sleep - new, sleep - unsleep. На протяжении 3-х дней все ссылки которые имеют статус sleep - new, sleep - unsleep, sleep M просто отменял, без ГБЛа. В итоге число слипов с таким статусом за последние 2 недели было всего 3 (три!)

2...Как О покупаю много ссылок. Опять же недели 3 назад заметил, что из 10-15К ссылок порядка 800-1000 имеют статус еррор. Всего у меня на аккаунте 30 проектов, то есть с одного домена покупаю не более 30 ссылок. Открыл все ерроры и начал отправлять в ГБЛ те домены, где действительно по каким-либо причинам не было ссылки (домен не делегирован, хостинг не оплачен, просто убрали код и т.д.). В итоге уже 2 недели на аккаунте не более 80 ерроров. Прелесть в том, что все ссылки с домена не обязательно проверять, достаточно одну страницу с домена. Времени ушло на это минут 30.

С моими методами, конечно, можно поспорить. Но 2 недели после очистки показали, что число моргальщиков сократилось в 20-30 раз, число ерроров в 10.

Очистку продолжаю.

Интересует именно Яндекс. Ссылки будут на самом деле не из меню, а с главной страницы. На ней выложены анонсы всех статей. Т.е. как минимум одна ссылка на каждую статью юудет. Далее вопрос о перелинковке жтих статей между собой с нужными анкорами.

Rapidmann:
Вот конкретно в данном случае будет одно преимущество, так как все ключи имеют общую часть - покупка ссылок. Будет легче покупать на одну страницу, если конечно, покупка ссылок запланирована. Проще будет делать смешанные и разбавочные анкоры.

Если не вытяну внутренним, тогда буду докупать, но тема не очень конкурентная, так что это небольшое преймущество.

Rapidmann:

А в приципе они мертвому припарка... Линейность в них просматривается на ура. Вместо того чтобы все вспомогательные друг на друга - меню это может сделать, собственно оно это и делает. Второй способ - как-то не особо логично, ну при трех статьях может быть и нормально, а вот при 30 уже не очень.

Вопрос именно о 4-х статьях, а не о 30. Меню тоже будет ссылаться на все 4 статьи.

yanus:
можно их перелинковать НЧ запросами, но без фанатизма.

Что значит без фанатизма? Можно по одной ссылке с каждой вспомогательной статьи на каждую вспомогательную статью. Можно По одной ссылке кольцом. Как лучше?

Вот 2 варианта

png schema2.png
png schema3.png
Всего: 2974