Сообщить о хамских выходках пользователей форума в администрацию или нет - это каждый решит сам, но в случае необходимости любое неуважение должно гарантированно пресекаться согласно п.4.13 Правил Форума, дабы не повадно было.
Вы знаете, я, конечно, не инсайдер Яндекса, но имхо хранить два раза одну и ту же информацию никто не станет. Скорее всего, что в одной таблице, где лежит страница, в одном из полей, просто перечислены индексы баз/таблиц/строк, где лежат бэки. Не более, ни менее.
Вот и не факт.
Забейте в строку поиска вот это #link="www.yandex.ru" и понажимайте Ctrl+F5 с десяток раз. Ежели бы все лежало на одной машине, то цифры бы не прыгали, так как операция выборки из БД выполнилась бы полностью. Это раз. А что, если страничка будет ссылаться на какую-то еще. Что, продублируем в базе столько раз, сколько она на кого-то ссылается? Это два. Когда начинаешь щелкать по номерам страниц в списке бэклинков - число уменьшается. Если бы вся выборка велась с одной машины - оно бы имхо не стало уменьшаться. Это три.
Во-первых, не выгодно по деньгам.
Во-вторых, не факт, что успеют.
В-третьих, эффект от них, даже если и успеют, будет мизерный.
Константин, а какой от них толк, пока они молоденькие и легенькие?
Как я уже указывал раньше, если в алгоритме отлова реализован некий порог виц, начиная с которого "продажность" морды отлавливается, то какое-то время они будут незаметными, а потом потихоньку все отловятся, как только начнут превышать это значение.
Господа, завязывайте.
Треп по поводу анонимных минусов и т.п. приводит к большому минусу от Грея или Вольфа, а также к отключению от форума на определенный срок.
Хотя о хамских и матерных случаях комментариев репутации лучше все-таки сообщите Грею.
Уточните, что Вы вкладываете в понятие "производство".
Имеется ввиду превращение старых морд в продажные или создание новых (молодых) сайтов с продажными мордами?
Все отлавить невозможно аппаратными средствами.
Павлики Морозовы еще весьма популярны в наше время.
С уважением,
Сергей Пасечник.
Я сильно в этом сомневаюсь.
Во-первых, непонятно, сколько строк в базе данных выделять под страницы сайта, так как индексация может пройти не так, как ожидалась (сайт в дауне, отчетить не успел, не открылось что-то и т.п.)
Во-вторых, внутри машин пришлось бы сотни терабайт перекачивать с место на место, что для вычислительных мощностей - непозволительная роскошь.
В-третьих, параллельная выдача данных с нескольких машин - намного быстрее, чем с одной. (хотя тут как повезет - может и дейтствиетльно какой-то сайт лежит только на одной - но это, имхо, случайность)
В четвертых - другие причины
Крупные - is the keyword. Они наверняка имеют посещаемость больше 100К посетителей в месяц.
Что будет дальше - это пока сложно сказать, а оперируя имеющимися в настоящий момент фактами, я указал, что сейчас "проходной балл" - 100К.
Пока сложно сказать.
В условиях участия указано, что
Не слишком много сайтов в рунете обладают такими цифрами. Еще меньшее количество согласится транслировать рекламу.