Станислав

Станислав
Рейтинг
260
Регистрация
27.12.2009

Опа, первый раз слышу чтобы морду выкидывали.

Может есть смысл удалить материалы нарушающие правила и отправить на проверку в гугл?

Просто не сталкивался с таким, но если удалить то из за чего выкинули, должны же вернуть.

---------- Добавлено 30.04.2014 в 14:23 ----------

Kinodrom:
Через некоторое время морда вашего сайта будет опять в поиске.

И через некоторое время ее вновь выкинут.

сделал так

# Добавляем слеш в конце URL

<IfModule mod_rewrite.c>
RewriteEngine on
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_URI} !(.*)/$
RewriteCond %{REQUEST_URI} !(.*).html$
RewriteRule ^(.*[^/])$ $1/ [L,R=301]
</IfModule>

# Для работы Codeineger
<IfModule mod_rewrite.c>
RewriteEngine on
RewriteBase /
RewriteCond $1 !^(index\.php|user_dok|css\.xml|robots\.txt)
RewriteCond %{REQUEST_URI} !\.(css¦js¦jpg¦gif¦png)$
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule ^(.*)$ /index.php?/$1 [L]
</IfModule>

Может кому и пригодится!

mff:
Нет, конечно если в США захотят - интернета не будет в рф, но кому это нужно, как тогда профайлы на жителей наших собирать?! :)

Голубей привлекут...

bbon:
странный вопрос.. ну, например там полноценные регэкспы есть http://docs.mongodb.org/manual/reference/operator/query/regex/ - а что, бывает, что в базе данных не бывает поиска по словам? 😕

Ну я просто еще ток разбираюсь со всем этим. Доку по regex читал, но с моими знаниями, составление правильной регулярки займет много времени, вот и интересуюсь, к тому же думаю что regex в данном случае не поможет:

Суть такая, есть коллекция в которой поле массив

tags: ["slovo1","slovo2","slovo3","slovo4"]

Думаю как сделать чтобы при поиске "slovo1 slovo4" найти все записи в которых присутствует и то и другое слово.

Кто то так долго брутил конкурента, страдал долгими ночами в ожидании, а ты взял и спалил ссылку. Теперь твоему конкуренту точно кто то отпишет =(

вроде как VK не на чистом JS, где то слушок прошел что они хотят разработать вроде бы KPHP, точно уже не вспомню.

А вобще если говорить о асинхронности, то можно глянуть на node js + база mongodb

Дожили, спамеры ложат сервак на лопатки!?

Чтобы не мучатся и запустить сайт, временно снеси все содержимое файла /wp-comments-post.php. Пусть отправляют пост в пустой файл, уж лучше чем полностью сайт закрывать.

То что форму снес со страниц этим спамелки не удивишь, они нацелены именно на сам файл /wp-comments-post.php, вот и долбят его.

Я точно не знаю как спамелки работают со всем этим, но думаю их логика такая (простоя):

Ищут на сайте файл /wp-comments-post.php, если нашли то сохраняют URL и долбят этот сайт, если не нашли переходят к другому сайту.

Если логически рассуждать, то всего скорее у спамилки есть база данных, куда она складывает адреса сайтов с найденным файлом принятия комментов из коробочных CMS и думаю будет логично, если отдать 404 при обращении к этому файлу, быть может сайт из базы удалится и перестанут напрягать его запросами.

Если это проделать и хостер все равно будет выделываться, тогда:

Либо хостинг (тариф/план) слишком слабенький и нужно взять что то по мощнее, при чем не обязательно что тариф не соответствует нагрузкам, может быть сам хостер подталкивает вас на смену тарифа для свой же выгоды (часто относится к школохостерам, которых развелось как грязи)

Либо делать какую ту доп. проверку (капчу), всего скорее лучше на JS и лучше что то свое, а не опять таки из какой то коробки.

ПС. у меня есть сайты, капчи вобще нет, самопис, и ни каких проблем уже более 2-х лет.

ТС. можно обойтись и без |

Сделав так

<div class="poisk">

<ul>Быстрый переход в другой раздел:
<li class="split"><a href="">текст</a></li>
<li class="split"><a href="">текст</a></li>
<li><a href="">текст</a></li>
</ul>
</div>


.split:after {
content: "|";
margin-left: 5px;
}

При смене двига делал дополнительный контроллер, который со старых урлов редиректил (301) на новые + переписывался шаблон (внешне практически не поменялся) В итоге никаких проблем не было замечено! Уже как год прошел, может быть чуть больше.

pragmatik:
гхм, но позиции же у него действительно от чего-то просели, может Вы полагаете что поисковики рассуждают в духе: "о, эти ребята сделали адаптивный дизайн, теперь они слишком круты, нужно просадить их по позициям в выдаче"? Мне кажется, криворукая организация адаптивности выглядит более вероятной версией.

Да клали ПСы на валидные и не валидные сайты, вы думаете им заняться больше нечем как проверять валидность сайтов? ИМХО бред, тратить ресурсы на такие гомно проверки!

А то что трафик падает, так тут могут быть еще 5 триллионов причин, помимо шаблона, причем не думаю что они понижают в выдаче из за последнего, если конечно все быстро грузится и не тупит.

ТС. Адаптировал хорошо, держи пять! Думаю вся суть темы была именно в этом...

Всего: 1564