Хотел выложить пруф, но побоялся спалить тему, я достаточно объяснил :)
Суть проблемы в том, что у сайта дубли заголовков страниц в каталогах eventpage и booking.
http://www.concert.ua/eventpage/tyrwhitney_wewillalwaysloveyou
http://www.concert.ua/booking/tyrwhitney_wewillalwaysloveyou
Гугл считает первую страницу важнее судя по содержимому и меняет её заголовок на текст из <H1>, она соответственно и не хочет попадать в топ (автор видимо перепутал с индексом).
Может быть дело в том, что страницы, которые гугл посчитал за дубли и не хочет их индексировать?
Советую вам разобраться с содержимым каталогов и дублями заголовков между /eventpage/ и /booking/.
Пруф вашей беды.
И всё таки страницы в индексе.
Т.е. вы имеете ввиду ссылка не из деталей товара, а с самого листинга?
Типа - товар находится в данной категории?
По поводу закрытия карточек товара в нофоллоу решать вам, будете ли вы их продвигать или нет. Если да, то лучше ссылки из деталей делать, если нет с листинга. Но опять же сложно сказать, как будет оптимально, все индивидуально у каждого сайта, ведь есть возможность повторения одной и той же ссылки с листинга несколько раз, что уже будет переспамом. Я вам привел пример лучшей перелинковки. Одно время голову ломал, что больше любит гугл, в конце концов нашел несколько сайтов перелинкованных по данной схеме, где категории без бэков висят в топе именно благодаря релевантности ссылающихся на них страниц, чисто на перелинковке 30-40 страниц со схожими тайтлами. Видимо для формул ранжирования гугла это приносит наибольший эффект, когда на ссылающуюся страницу, с тайтлом типа Розовые слоники в Аляске, ссылаются подобные типа Розовые слоники в Вайоминге. Я сам удивился, когда такие страницы находятся выше более мощных страниц, с внешними бэками, продвигающихся по этим же ключам, но это факт, т.к. убедился на собственном опыте - эффект есть. Но для этого нужно подгонять структуру каталогов и не всегда эта релевантность схожих страниц есть.
Например есть категория, у которой заголовок - Телефоны Самсунг. В идеале будет если на неё ссылаются все карточки товаров с заголовками типа Телефон Самсунг Гэлекси и тп. Этот вариант будет лучше даже если на категорию Телефоны Самсунг будут ссылаться другие более мощные страницы типа Телефоны Нокиа или Телефоны Айфон. Все вроде банально просто, но эффект наилучший.
1) Передают, в разбавленном виде.
2) Для пауков -> индексации сайта.
3) Если страницы товаров продвигаются, то можно, иначе смысл минимален.
4) Вопрос = третьему вопросу.
Лучшая перелинковка - группами релевантных страниц. Т.е. чем больше ключевое слово встречается в тайтлах страниц, ссылающихся на страницу, тем эффективнее продвижение данной страницы по кеям из ее тайтла. Желательно немного разбавить, чтобы в анкор тексте данной страницы было как минимум 2 вариации кеев. Закрыть перетекание веса во все дыры и ненужные страницы, даже на страницы товаров, если вы их не планируете продвигать, например гонять вес сайта чисто по категориям. Сео-текст зависит опять же от структуры вашего сайта. Главное все делать в меру не ломая глаз посетителя. А вообще, всё индивидуально.
Я не вижу тут аналогии с керосиновой лампочкой.
Если сравнить усилия, затраченные вами на вывод ГС из под пингвина,
и услилия затраченные на реинкарнацию сайта на чистом домене, то
у кого будет больше перспектив? И это при том что вы на новом сайте
учтёте все ошибки, которые были на старом, будете стремиться к
созданию белого сайта, вернете позиции по ВЧ, все будет полноценно.
И факт, что ваши манипуляции со страницами на ГС ни к чему не приведут.
СЧ на второй странице это НОЛЬ, зачастую даже на 7-10 позициях тоже.
Конечно есть исключения, когда например сайт старый и авторитетный,
и его на новом домене продвигать будет хлопотно, но я сомневаюсь, что
такие сайты, если с ними всё в порядке, попадают под фильтры.
Сам Катс говорил, что лучше делать новый белый сайт, чем выводить ГС из под фильтров.
Правильно смотрите, но смотреть нужно до фильтра, а не после...
Кстати, по моим наблюдениям этот фактор размывается трастом.
Т.е. если все таки анкорный текст с точными вхождениями идет с трастовых ресурсов, то он не учитывается как спамный...
Вот убедительный пример:
http://www.opensiteexplorer.org/anchors?site=www.hertzcarsales.com
http://ru.semrush.com/info/hertzcarsales.com
Видно, что главные 2 ключевика составляют основную массу ссылок, но они с точными вхождениями с трастового ресурса.
В то время как остальные ключевики это спам, но они не пострадали от фильтров и сайт по ним не просел.
Мне кажется умные люди еще со времен первого пингвина поняли, что это бесполезное занятие, которое отвлекает массу времени. Ведь если сайт попал под фильтр, значит было за что и найти причины не могут найти только нубы, которых Гугл и отсеивает. Есть г.контент, архитектура сайта никчемная - держи панду, г.ссылки со спам анкорами ведут на твой сайт - получи пингвина. Но, почему люди не хотят смиряться со своими ошибками я не пойму. Неужели нельзя их просто осознать и заняться новым сайтом с учётом былого?
Ну если говорить о 2013ом, то там не только .uk будет, а еще пару тысяч новых TLD. Не зря в Гугле сейчас суетятся по вопросу пессимизации EMD )
В общем жаль, что возраст обнулистся, ну я думаю, это не такой уж и критичный фактор, буду ждать )
Чую подчищают выдачу перед апдейтом PR, который, судя по последним мажорным апам (раз в 3 месяца), должен уже произойти.