Станислав

Станислав
Рейтинг
260
Регистрация
27.12.2009

Гугл просто продвигает свой браузер.

Недавно столкнулся с такой проблемой при просмотре роликов на youtube, они то не воспроизводились, то реклама в ролике по кругу моталась. Стоял SRWare iron, ставил различные кодеки и прочий хлам, вобще крутил мутил, так ничего толкового не вышло. Затем во время серфинга по серпу, начало перекидывать на старый диз google, при всем при этом поиск не работал, так же и с картинками, старый диз, но там хоть находил что то вроде.

Поставил оперу, та же беда.

Затем плюнул на избавление от слежки гугла, поставил chromium, ролики воспроизводятся, серп работает, но появились жуткие лаги.

Возможно за счет автопоиска, особо не разбирался, но при открытии вкладки приходилось открывать консоль и убивать процессы, один раз пришлось ребут делать так как до консоли не смог достучатся. Снес все что было из браузеров.

Поставил firefox, вроде все работает, но как то он отстал (ubuntu), под виндой думаю неплохой на вид. Вобщем плюнул и тоже снес.

Итог. Стоит хром от гугла, деваться не куда, да и устал я уже разбираться с этой проблемой.

Гугл пытается все основное подмять под себя и у него это хорошо получается. Как говорится бизнес, есть бизнес.

Опа, первый раз слышу чтобы морду выкидывали.

Может есть смысл удалить материалы нарушающие правила и отправить на проверку в гугл?

Просто не сталкивался с таким, но если удалить то из за чего выкинули, должны же вернуть.

---------- Добавлено 30.04.2014 в 14:23 ----------

Kinodrom:
Через некоторое время морда вашего сайта будет опять в поиске.

И через некоторое время ее вновь выкинут.

сделал так

# Добавляем слеш в конце URL

<IfModule mod_rewrite.c>
RewriteEngine on
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_URI} !(.*)/$
RewriteCond %{REQUEST_URI} !(.*).html$
RewriteRule ^(.*[^/])$ $1/ [L,R=301]
</IfModule>

# Для работы Codeineger
<IfModule mod_rewrite.c>
RewriteEngine on
RewriteBase /
RewriteCond $1 !^(index\.php|user_dok|css\.xml|robots\.txt)
RewriteCond %{REQUEST_URI} !\.(css¦js¦jpg¦gif¦png)$
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule ^(.*)$ /index.php?/$1 [L]
</IfModule>

Может кому и пригодится!

mff:
Нет, конечно если в США захотят - интернета не будет в рф, но кому это нужно, как тогда профайлы на жителей наших собирать?! :)

Голубей привлекут...

bbon:
странный вопрос.. ну, например там полноценные регэкспы есть http://docs.mongodb.org/manual/reference/operator/query/regex/ - а что, бывает, что в базе данных не бывает поиска по словам? 😕

Ну я просто еще ток разбираюсь со всем этим. Доку по regex читал, но с моими знаниями, составление правильной регулярки займет много времени, вот и интересуюсь, к тому же думаю что regex в данном случае не поможет:

Суть такая, есть коллекция в которой поле массив

tags: ["slovo1","slovo2","slovo3","slovo4"]

Думаю как сделать чтобы при поиске "slovo1 slovo4" найти все записи в которых присутствует и то и другое слово.

Кто то так долго брутил конкурента, страдал долгими ночами в ожидании, а ты взял и спалил ссылку. Теперь твоему конкуренту точно кто то отпишет =(

вроде как VK не на чистом JS, где то слушок прошел что они хотят разработать вроде бы KPHP, точно уже не вспомню.

А вобще если говорить о асинхронности, то можно глянуть на node js + база mongodb

Дожили, спамеры ложат сервак на лопатки!?

Чтобы не мучатся и запустить сайт, временно снеси все содержимое файла /wp-comments-post.php. Пусть отправляют пост в пустой файл, уж лучше чем полностью сайт закрывать.

То что форму снес со страниц этим спамелки не удивишь, они нацелены именно на сам файл /wp-comments-post.php, вот и долбят его.

Я точно не знаю как спамелки работают со всем этим, но думаю их логика такая (простоя):

Ищут на сайте файл /wp-comments-post.php, если нашли то сохраняют URL и долбят этот сайт, если не нашли переходят к другому сайту.

Если логически рассуждать, то всего скорее у спамилки есть база данных, куда она складывает адреса сайтов с найденным файлом принятия комментов из коробочных CMS и думаю будет логично, если отдать 404 при обращении к этому файлу, быть может сайт из базы удалится и перестанут напрягать его запросами.

Если это проделать и хостер все равно будет выделываться, тогда:

Либо хостинг (тариф/план) слишком слабенький и нужно взять что то по мощнее, при чем не обязательно что тариф не соответствует нагрузкам, может быть сам хостер подталкивает вас на смену тарифа для свой же выгоды (часто относится к школохостерам, которых развелось как грязи)

Либо делать какую ту доп. проверку (капчу), всего скорее лучше на JS и лучше что то свое, а не опять таки из какой то коробки.

ПС. у меня есть сайты, капчи вобще нет, самопис, и ни каких проблем уже более 2-х лет.

ТС. можно обойтись и без |

Сделав так

<div class="poisk">

<ul>Быстрый переход в другой раздел:
<li class="split"><a href="">текст</a></li>
<li class="split"><a href="">текст</a></li>
<li><a href="">текст</a></li>
</ul>
</div>


.split:after {
content: "|";
margin-left: 5px;
}

При смене двига делал дополнительный контроллер, который со старых урлов редиректил (301) на новые + переписывался шаблон (внешне практически не поменялся) В итоге никаких проблем не было замечено! Уже как год прошел, может быть чуть больше.

Всего: 1565