bobtool

Рейтинг
3
Регистрация
20.02.2008
bukvofil:
300 доменов под 300 ЛЮБЫХ сайтов? Мало! Надо было 300000, тогда бы точно хватило до пенсии.

до пенсии возиться с ними, так понимаю? =)

strekov:
из серии всё могу и всё есть, но не знаю как работать.

именно так же и написано - нет? :)

выгодно ли прогнать по каталогам и ссылки продавать?

или выгодней нарерайтить статей и под 300 НЧ заточить, чтобы адвордс?

или вообще лучше забыть про это гиблое дело?

Dimanych:
Есть большая база данных, более миллиона записей. Средняя длинна записи 1кб. (база 1 гб)
Почти все запросы происходят по примари ID, но иногда и поиск по всем ячейкам, включая текстовые.
Теперь вопрос, как заставить эту базу не тормазить? :D

Сейчас всё работает на mysql5, сам он вроде как оптимизирован.
Посоветуйте как всё это оптимизировать, запросов много, сервер несправляется.
Какие оптимальные данные сервера должны быть, какую базу лучше использовать, что если один сервер(даже если очень мощный) не справляется, какие могут быть решения?

Всем спасибо за любые ответы!

попробуйте: http://www.tizag.com/mysqlTutorial/mysql-index.php

если БД обновляется не часто, то это хорошо ускоряет

но вы уверены, что БД тормозит? алгоритм поиска какой используете? может там поиск по штамму или аж морфология. Или просто алгоритм работает не эфективно. При большом кол-ве одновременных запросов дело может быть не столько в БД, сколько в используемом интерпретаторе, но это философия.

ну и комплекс мероприятий тут: http://www.mysql.ru/docs/man/MySQL_Optimisation.html

Satori:
Внимание вопрос: не понизит ли меня Яндекс и прочие за такое дело (появление 3-7 ссылок в неделю на интересные материалы из сети по теме сайта)? Вроде как реально полезная для посетителей будет рубрика...
PS: я новичек, не пинайте сильно если что не так описал...

делайте ссылки через redirect, чтобы выглядели, например, так:

www.вашсайт.ru/out.php?url=http://www.внешнийсайт.ru/data/id/123456/

out.php будет просто выдавать заголовок с редиректом на $_REQUEST

Цена на хостинг не изменится, хотя может будет падать еле-еле.

Цена на colocation будет расти - это в любом случае и без всяких сомнений.

Но! Мастерхост повысил цены более чем в 2(!) раза и сразу. С чем это связано? Я думаю, что в первую очередь с тем, что сейчас они активно судятся. Им предъявлены изрядные финансовые претензии, поэтому они вынуждены сейчас бороться уже не за развитие, а больше за выживание.

Colocation - самое слабое звено, которое, с точки зрения хостера, является лишь местом, куда можно указать ресурсу с большим трафиком, чтобы не загружать свои доходные сервера. Как средство заработка, colocation с такими ценами сильно мешает. Ведь каждая студия норовит свой сервер поставить, заслать туда всю клиентуру, а на разницу держать еще одного сотрудника.

И голубая мечта всех хостеров - всех таких клиентов пересадить на свои тарифы.

Но то нас и спасает, что хостеров много, и все они бояться друг-друга. Попытки договориться есть, но толку пока не много. Вот когда появяться несколько больших хостеров, договоряться, займут все дата-центры, вот тогда об услуге collocation в сегодняшних ценах можно забыть =)

Но это, опять же, если возиться здесь, в РФ. Идите в Европу - там чудовищно дешево, хоть и не патриотично =)

CunninGFox:
Да бог его знает... Потому я и не стал делать этого сразу, а отложил на завтра, когда и без меня все скажут(читай напишут)...
Одна фраза мне в голову въелась, ее я не оставлю без внимания, но завтра)

Окстись! Только оптимизатор может читать копирайты за деньги и спорить с содержанием =)

Спорить имеет смысл только с ценой, в данном случае.

bobtool добавил 04.03.2008 в 05:45

CunninGFox, чем же тебе мой "Окстись" так приелся?

При чем здесь учиться думать?

Нервные все какие на форуме пошли, сил нет!

ipconfig:
Pr пока думаю. Вставить картинкой - дело трех секунд.. хотелось бы получасть числом, а это проблемней.. определение оч не стабильно...может будут идеи?

=))

Идеи только такие, что на pageranktools.com разбирать страницу и выдирать числовое значение по ДЦ.

Но!

Ты используешь file_get_contents для получения результирующей страницы, а этот подход недостаточный.

Яндекс, например, всегда кладет cookie и каждый раз его спрашивает. Это, вероятнее всего, cookie сессии, но, как было экспериментально замечено, выдача реальная и выдача через file_get_contents сильно разнится порой. Не всегда, но разнится. Четкого объяснения пока я не выявил, но свои скрипты уже переделал под полную эмуляцию человека-с-броузером. Глюков стало сильно меньше.

Рекомендую пользоваться модулем Snoopy для PHP (аналог LWP для Perl). Там все очень просто и работает без cURL.

При обращениях к Яндексу ставить задержку - тоже полезно, но в твоем случае она возникает естественным путем.

Ловить надо cookie и их потом отдавать.

Прописывать клиента броузера.

И вообще, смотреть, что страница выдает в header и подстраиваться под "защиты" от ботов.

А то эти товарищи обложаться всякими хитростями, и сидят довольные, но мы их тра-та-та =)

m@lder,

ждать очень долго надо будет результатов этого эксперимента.

говорят, 3+ месяца

на сбор базы уйдет много времени.

я бы готов купить у кого-либо готовую зачищенную базу для AllSubmitter, да кто бы дал? =)

12
Всего: 18