Aleks_

Рейтинг
173
Регистрация
25.02.2006

Меняйте по крону robots.txt. Пару дней пожрал, потом разгрузочная неделя :)

Мэкс:
Ломают и еще как :)
Сайтом управляет CMS - Это скрипты, они, как правило работает из под определенного эккаунта, который имеет определенные права... Т.е. если в скрипте дыра, то можно через эту дыру напихать Shell команд от этого пользователя. Прямо через Web интерфейс, к примеру. и результат туда же будет выводиться.
Т.е. через эту дыру можно поставить на сайт что угодно.
Пользовательский эккаунт, как правило имеет доступ до файла с хешированными паролям, который мы, в свою очередь можем вытащить.
Следующий шаг - натравляем на файл с паролями крекер пассвордов и получаем какой-то результат.... может и админские пароли ломануться.
Теперь у нас есть доступ к куче аккаунтов.
:(

Насколько я себе эту кухню представляю, в Юниксе, если скрипт создает новый файл, то владельцем этого файла считается владелец скрипта создателя, то есть файл пользователя nobody не может создать файл, принадлежащий root и если файл принадлежит root, а на нем стоят права RW- --- ---, то прочитать и модифицировать его может только root

Если бы для взлома любого сервера достаточно было права на создание файлов на этом сервере, то это можно было бы сделать через любую учетную запись. Скорее всего проблема не в юниксе, а кривом администрировании.

Индексации глубоко сидящих разделов может помочь их вывод на главную страницу, а для того чтобы на ней не было слишком много ссылок, сделать их вывод динамическим, например с заменой раз в день. Это могут быть например "популярные разделы", "популярные товары", "самые дешевые" и т.д. Короче говоря, подсунуть поисковику путь по которому он может попасть поглубже, а на тупиковых страницах поставить ссылки типа "следующая", "предыдущая".

Anatoliy:
Я с Ростова. Тоже первый чек на 170 usd
-
Вы обналичи чек ? Я только получил и после ваших постов незнаю даже куда и идти 😒 🙅

Если в центральном офисе говорят, что должны, а в местном, что не принимают, то напишите письменный запрос на имя главы местного отделения банка. Они обязаны вам ответить, сославшись на конкретные документы.

Если имеется ввиду процент количества переходов на ваш сайт с первой страницы результатов поиска по отношению к общему количеству показов страницы, то думаю что никак. Конечно зная примерное число запросов по словам за месяц можно что-то прикинуть, но вряд ли цифра будет даже приблизительно близка к реальной.

coredump:
На самом деле вопрос спорный. Не совсем понятно, как вы хотите "нагонять" трафик. Если есть посетители, которых не знаете куда деть, может стоит их "нагонять" на другой сайт, для которого они будут "целевыми"? :)

Я нагонять ничего не хочу, но существуют совершенно не коммерческие тематики. Например вряд ли у вас будет избыток рекламы по теме "стихи", хотя посещаемость этих ресурсов очень большая. Возможно в данном случае рекламу контекстной назвать будет сложно, но если правила Адсенса позволяют, то почему бы и не поставить?

Independence:
Интересно другое - подадут ли когда-нибудь на Валуй в суд или отзовут ли у них в итоге лицензию за такие "услуги". Грустно все это читать. Кто там вообще работает, непонятно. Всех поувольнять, набрать нормальных людей, если нужно, поменять панель управления и пр., пр.

Виновными их ни один суд не признает и лицензию не отберут. Взломы серверов это преступление, совершенное третьими лицами, а они за это не обязаны отвечать. Если в Вашей квартире застрелят соседа, пришедшего к Вам в гости, то Вас не посадят за то, что Вы на него не надели бронежилет и каску :)

optimizacija:
Кстати, если на сайте есть хоть один стандартный скрипт (форум, блог, гостевая, ЦМС), могут поломать через него. Как минимум, нужно убрать все идентификаторы (название форума, версия и т.п.), как максимум - отказаться от таких скриптов. Так как через них обязательно взломают, рано или поздно.

Ну это далеко не так. В том же форуме конечно нафлудить могут, но что то я сильно сомневаюсь, чтобы под Юниксом где на все файлы устанавливаются полномочия можно было весь сайт взломать. Например у меня на сервере все скрипты может редактировать только пользователь с рутовскими полномочиями, а каталоги закрыты для доступа из других сетей. То есть для того, чтобы что-то сделать нужно иметь хотя бы два пароля для входа на сервер и рутовский и кроме того сначала умудриться сломать фаервол, чтобы тебя пустили туда по ssh.

-Flash-:
Почему яндекс индексирует не все страницы, у меня почти на всех сайтах так. И это касается сайтов с большим количеством страниц.

Для эксперимента посмотрел проиндексированные страницы у
www.bolero.ru , их чуть больше 100 000, хотя я точно знаю, что у них больше 200 тыс. лотов, страниц и того больше.

Для того, чтобы проиндексировать все страницы робот должен для начала увидеть ссылки на них. Далеко не до всех страниц на больших сайтах можно докопаться. Например у меня в одном разделе 1900 страниц и чтобы дойти до последней, нужно последовательно просмотреть предыдущие. Предположим робот дошел до пятисотой страницы и запомнил ссылку, когда он вернется через несколько дней, то все уже сдвинется на десятки страниц и по запомненной ссылке он будет обнаруживать уже проиндексированные страницы. Так что общий результат может зависеть от прожорливости поисковика. Например у меня в индексе Яндекса на данный момент около 100 тыс. страниц, а у Гугла 800 тыс.

Мирный:
народ, ну что вы мудрите с этой перелинковкой?
лучше не кашу по тарелке размазывать чтобы занять всю площадь, а еще ее в тарелку добавить ;)

Так и я про то же. Как ни крути, а закон сохранения энергии никто не изменял :) Более того, при нынешних чудесах по раздаче PR страницам, можно вовсе ничего и не заметить, если даже что-то и есть. У меня многие разделы с тысячами ссылок на них имеют PR3, а многие бессылочные страницы PR4. Может это Гугл при обсчете сайта клинит и он просто не переносит веса дальше, но факт есть факт.

Всего: 601