WebAlt

WebAlt
Рейтинг
267
Регистрация
02.12.2007

https://systemintegra.ru/novosti/uyazvimosti_meltdown_i_spectre/

Обновление для защиты от Meltdown уже выпущено для RHEL, CentOS и Fedora, Ubuntu (кроме некоторых дистрибутивов) и ожидается для Debian.

Так же, обратите внимание, что одним из инструментов совершения атаки может стать web-браузер (к примеру, через выполнение JavaScript-кода). Разработчики Google Chrome работают над интеграцией защиты прямо в браузер. Исправление будет доступно в релизе Chrome, назначенном на 23 января. Компания Mozilla внесла в Firеfox 57 временные исправления, затрудняющие атаку, ограничив точность работы таймера (performance.now) до 20µs и отключив SharedArrayBuffer.

Я сразу свалю с такого сайта навсегда. ИМХО.

Sitealert:
Не, ну сегодня определённо какой-то странный день. Один спрашивает, как ему спамеров на свой сайт завлечь, другой - на каком движке его сайт... Наверное, я недопил, потому и не понимаю этих приколов.

Третий - как сделать фейковый счетчик заказов.:)

Это вставка цитаты, смотрите как сделано в стандартных шаблонах к дистрибутиву в engine.sss.

Default:

/*--- Цитаты, Спойлеры, Код  ---*/

.quote, blockquote { padding: 1% 4%; border-left: 2px solid #e85319; font-style: italic;}

Green:

	.quote, blockquote {

padding: 2px 20px;
margin: 1.5em 0;
border-left: 3px solid #95c00e;
font-family: Georgia, serif; font-style: italic;
font-size: 1.2em;
color: #999;
}

Red:

	.quote, blockquote {

padding: 1em 1em 1em 3em;
margin: 1.5em 0;
border: 0 solid #444;
border-width: 3px 0;
font-family: Georgia, serif; font-style: italic;
font-size: 1.0em;
position: relative;
}

А можеет пояснить про какой протокол речь, я не поняла сокращения(
" с без-ным протоколом"
В роботсе тоже надо что-то прописывать?

Host: https://example.org

iccup:
у меня выделенный сервер и костыль лучше на nginx. И будут ли картинки индексироваться?

Примерно так:

location ~* ^.+\.(jpg|jpeg|gif|png|svg|js|css|mp3|ogg|mpe?g|avi|zip|gz|bz2?|rar|swf)$ {

root $root_path;
valid_referers none blocked server_names ~(vash_site|yandex|google|yahoo|bing|facebook|subscribe|feedburner|mail|rambler|nigma|ask|qip|bing);
if ($invalid_referer) {
return 403;
}
error_page 404 = @fallback;
}

https://support.google.com/webmasters/answer/6062608?hl=ru&ref_topic=6061961&visit_id=1-636465381403988530-2847334096&rd=1

Для чего нужен файл robots.txt?
Неграфические файлы
В случае с неграфическими файлами (например, веб-страницами) файл robots.txt используется для управления сканированием. Например, можно запретить сканирование похожих или ненужных страниц, чтобы не перегружать сервер. Нельзя использовать файл robots.txt, чтобы скрыть страницу из результатов Google Поиска. На нее могут ссылаться другие страницы, и она все равно будет проиндексирована. Чтобы заблокировать страницу в результатах поиска, применяйте тег noindex или директиву или установите пароль.

https://support.google.com/webmasters/answer/93710?hl=ru

Внимание! Поисковый робот не обнаружит атрибут noindex, если страница заблокирована в файле robots.txt. Такая страница может быть представлена в результатах поиска (например, если на нее есть ссылка на другой странице).
Всего: 2077