Вы не сказали, что бывают <h1>2 x<a>...</a></h1> и бывают пустые <h1><a>...</a></h1>.
Регулярка от ivan-lev тоже рабочая, там первый + на * заменить(чтобы пустые попадали): <h1>.*<a[^>]+>(.*?)</a></h1>
Показали бы исходный кусок html-кода - там, похоже, переносы строк есть внутри или атрибуты в <h1>, или 2 тега <a> внутри H1.
Продолжаем сеанс телепатии и реверсивной инженерии - эту регулярку попробуйте:
preg_replace('|<h1[^>]*>.*?<a[^>]*>(.*?)</a>\s*</h1>|i', "\$1", $html-код)
PS: Если "вообще весь текст перепарсило" - значит под регулярку не нашлось совпадений.
<a[^>]*>(.*?)</a>
Такими темпами - жизни не хватить продвигать.
Добавляю на индексацию все страницы, сколько есть: по 5-10 тысяч и более. Проблем не наблюдается ни на одном из сайтов.
Мифы всё это - про постепенное и ежедневное обновление контента. Ежедневное - это только для новостных сайтов может быть актуально.
Есть сайты, которые годами стоят без обновления контента - трафик не падает.
Ссылки надо начинать ставить сразу, только без фанатизма и не "вечные"(про "вечность" это - тоже миф очередной).
Вечные ссылки на сайт, полезный посетителям - сами постепенно появляются.
Внутренние ссылки (навигация сайта), тоже - ссылки и начинают работать после ссылочного апдейта.
Запустите тест на https://panopticlick.eff.org/ - пользователя в сети можно достаточно точно идентифицировать по набору полей, доступных через JavaScript.
Почитайте про суперкуки - есть около десятка возможностей(кроме Cookie и Flash Cookie) хранить на копме пользователя информацию, достаточную для индентификации компьютера в сети Интернет(причём даже - вне доступа браузера).
Технологии идентификации пользователей для целевой рекламы и онлайн отслеживания, развиваются очень активно, а главное - очень скрытно.
Что на повестке дня?
Просто о делах наших скорбных покалякать или темы какие палить будем?
Академовский? Неоком - не хуже Заельцовки, только пробки...
Там проблемы не с ранжированием, а с первичной индексацией в Google. Из собственного опыта:
Домен с 2-я '-' - единственный случай, когда Google индексировал сайт более 1,5 месяцев. Причем, сайт стоял "колом" более месяца - ни одной страницы в индексе Гугла не было. А с Яндекса уже трафик шёл во всю.
С "однослэшёвыми" доменами таких проблем не было ни разу.
Нет, просто тема не серьёзная - знакомства, СЕО, сайты :)
Когда обсуждение перейдёт в "по сколько бутылок брать и куда ехать" - народ подтянется.
Новостной робот так работает - в выдачу подмешиваются страницы новостей.
В Яндексе - это быстроробот: страница появляется в выдаче на 3-4 дня.
Это "что-то" - учёт внутренних ссылок. Ссылочное начинает работать после ссылочного апдейта, который бывает отдельно от текстового.