Ladycharm

Рейтинг
351
Регистрация
07.12.2007
egorea1999:
ВАША РЕГУЛЯРКА ПОДОШЛААА, спасибо большое!

Вы не сказали, что бывают <h1>2 x<a>...</a></h1> и бывают пустые <h1><a>...</a></h1>.

Регулярка от ivan-lev тоже рабочая, там первый + на * заменить(чтобы пустые попадали): <h1>.*<a[^>]+>(.*?)</a></h1>

egorea1999:
не, не то, вообще весь текст перепарсило

Показали бы исходный кусок html-кода - там, похоже, переносы строк есть внутри или атрибуты в <h1>, или 2 тега <a> внутри H1.

Продолжаем сеанс телепатии и реверсивной инженерии - эту регулярку попробуйте:

preg_replace('|<h1[^>]*>.*?<a[^>]*>(.*?)</a>\s*</h1>|i', "\$1", $html-код)

PS: Если "вообще весь текст перепарсило" - значит под регулярку не нашлось совпадений.

<a[^>]*>(.*?)</a>

Vgamme:
И возник такой вопрос, его конечно можно постепенно, медленно продвигать, по чуть-чуть закупать ссылок, писать 1-2 статьи в день, и потихоньку развиваться.

Такими темпами - жизни не хватить продвигать.

Vgamme:
Вот интересно, а более агрессивнее можно продвигать?
К примеру, по 5-10 статей в день....

Добавляю на индексацию все страницы, сколько есть: по 5-10 тысяч и более. Проблем не наблюдается ни на одном из сайтов.

Мифы всё это - про постепенное и ежедневное обновление контента. Ежедневное - это только для новостных сайтов может быть актуально.

Есть сайты, которые годами стоят без обновления контента - трафик не падает.

Vgamme:
Закупать вечные ссылки на трастовых старых сайтах. Может быть еще что нибудь.

Ссылки надо начинать ставить сразу, только без фанатизма и не "вечные"(про "вечность" это - тоже миф очередной).

Вечные ссылки на сайт, полезный посетителям - сами постепенно появляются.

dreamreckless:
Спасибо за ответ. В статьях ссылок нет, это статьи только на сайте..

Внутренние ссылки (навигация сайта), тоже - ссылки и начинают работать после ссылочного апдейта.

Redbaron_chaos:
Сделал вывод, железо.

Запустите тест на https://panopticlick.eff.org/ - пользователя в сети можно достаточно точно идентифицировать по набору полей, доступных через JavaScript.

Почитайте про суперкуки - есть около десятка возможностей(кроме Cookie и Flash Cookie) хранить на копме пользователя информацию, достаточную для индентификации компьютера в сети Интернет(причём даже - вне доступа браузера).

Технологии идентификации пользователей для целевой рекламы и онлайн отслеживания, развиваются очень активно, а главное - очень скрытно.

nik_kent:
А может и правда соберемся? 🚬

Что на повестке дня?

Просто о делах наших скорбных покалякать или темы какие палить будем?

Tryd0g0lik:
Далековато для некоторых будет.

Академовский? Неоком - не хуже Заельцовки, только пробки...

Ramnen:
Полнейшая чушь! Домен с дефисом ранжируется не хуже домена без дефиса

Там проблемы не с ранжированием, а с первичной индексацией в Google. Из собственного опыта:

Домен с 2-я '-' - единственный случай, когда Google индексировал сайт более 1,5 месяцев. Причем, сайт стоял "колом" более месяца - ни одной страницы в индексе Гугла не было. А с Яндекса уже трафик шёл во всю.

С "однослэшёвыми" доменами таких проблем не было ни разу.

Нет, просто тема не серьёзная - знакомства, СЕО, сайты :)

Когда обсуждение перейдёт в "по сколько бутылок брать и куда ехать" - народ подтянется.

dreamreckless:
1. Google (я пока только его имею ввиду) заходит на сайт, и собирает новый текст.
2. Потом он же его подает в выдачу.

Новостной робот так работает - в выдачу подмешиваются страницы новостей.

В Яндексе - это быстроробот: страница появляется в выдаче на 3-4 дня.

dreamreckless:
3. Но что-то он еще делает (действия), так как по статьям идти трафик начинает только спустя некоторое время, при том что они уже в выдаче по факту.
...
Видимо что-то существует?

Это "что-то" - учёт внутренних ссылок. Ссылочное начинает работать после ссылочного апдейта, который бывает отдельно от текстового.

Всего: 4257