29.05.2009, 16:06 | #31 | |
Эксперт
Регистрация: 18.06.2007
Адрес: Картофель
Сообщений: 2,417
Вес репутации: 355
|
Цитата:
типичный пример "криворукости"... зачем 3 файла? - есть же serialize() к примеру, можно вообще весь контент уместить в один файл, в виде сложного многомерного + ассоциативного массива, тем более как я понял активного "редактирования" не будет |
|
29.05.2009, 16:14 | #32 | |
Мафиози
Регистрация: 11.09.2008
Адрес: <H1></H1>
Сообщений: 1,174
Вес репутации: 242
|
Цитата:
Спасибо, это наверно главная проблема |
|
29.05.2009, 17:32 | #33 | |||
Магистр
Регистрация: 04.12.2007
Сообщений: 3,680
Вес репутации: 416
|
Цитата:
Цитата:
Цитата:
А я то думаю- че за фигня людей волнует.. При современных мощностях такие проблемы возникают на прилично раздутых базках.. А тут дело в злых хостерах оказываецца. Сразуп говорили. Тут наверное я могу дать мега совет- за 3-6 тыс рублей в месяц вы можете поставить свой собственный сервер в датацентр. И у вас не будет никакого гемора с тем что сапой недоволен какойто долбаный провайдер, которому сапа видете ли перегружает сервер, на который этот провайдер изза своей тупой жадности навешал в 5 раз больше вебсайтов, чем надо было..
__________________
|
|||
29.05.2009, 20:26 | #34 | |||
Эксперт
Регистрация: 18.06.2007
Адрес: Картофель
Сообщений: 2,417
Вес репутации: 355
|
Цитата:
$articles["title"][1] = "Тайтл 1"; $articles["title"][2] = "Тайтл 2"; $articles["short"][1] = "Новость краткая 1"; $articles["short"][2] = "Новость краткая 2"; $articles["full"][1] = "Полная новость 1"; $articles["full"][2] = "Полная новость 2"; $article_data = serialize($articles); т.е. весь массив можно спокойно писать в файл с последующим: $articles = unserialize($article_data); т.е. все можно уместить в 1 файл, разумеется не надо делать программерских извращений, когда этот файл имеет размер в десятки мегабайт... Цитата:
это будет явно заметно уже при 10-20 одновременных (конкурентных) запросах к страничке... в свою очередь, в БД (MySQL) это исключается, хотя там тоже присутствует блокирование элементов таблицы в момент записи, но благодаря сложной системе кеширования (в ОЗУ), - это происходит весьма быстро и без деградации производительности... Цитата:
только виноваты были не боты САПЫ, а висящие диспенсеры САПЫ (которые отдают ссылки), т.е. скрипт начинал скачивать ссылки и вис (по дефолту стоял таймаут в 30 сек.) в результате происходила лавинообразная нагрузка из-за плодящихся процессов Apache... кто разбирается в этом всем, тот меня поймет о чем я говорю, возможно они не раз уже сталкивались с этим и не надо ругать всегда хостинг провайдеров, в 99% случаев проблема связана с криворукостью программеров |
|||
30.05.2009, 07:55 | #35 |
Мафиози
Регистрация: 11.09.2008
Адрес: <H1></H1>
Сообщений: 1,174
Вес репутации: 242
|
Всем спасибо
|
30.05.2009, 10:42 | #36 |
Специалист
Регистрация: 12.05.2008
Адрес: Адрес: Адрес:
Сообщений: 119
Вес репутации: 199
|
Самый простой способ, с которым не будет проблем из- за блокировки файла - это хранить каждую статью в отдельном файле. Можно в один файл запихнуть и заголовок и краткое описание и текст статьи, используя разделитель типа %^&#, означает конец заголовка, а $^*@# конец краткого описания, и уже не выводить, что идет после $^*@#.
Например: Заголовок %^&# Краткое описание $^*@# Текст статьи P.S. Не заметил, что решение уже нашлось, но всеже предложу такой вариант. Последний раз редактировалось pma87; 30.05.2009 в 10:50. |
30.05.2009, 15:54 | #37 | |
Мафиози
Регистрация: 11.09.2008
Адрес: <H1></H1>
Сообщений: 1,174
Вес репутации: 242
|
Цитата:
|
|
30.05.2009, 16:56 | #38 |
Злой модератор
Регистрация: 25.03.2007
Адрес: Deep forest
Сообщений: 5,343
Вес репутации: 502
|
Русская мафия, одна статья-один файл самый оптимальный вариант. Как там внутри будут поля разделяться - через текстовые метки или сразу в виде массива храниться не особо важно. Если запихнуть все 500 статей в один файл, то для того, чтобы вывести одну из них, придется считать с диска все 500, и так при каждом запросе.
Проблема с последними статьями решается очень просто - достаточно создать один дополнительный файл, в котором будут храниться только несколько последних заголовков статей + анонсы. При добавлении новой статьи на сайт его не сложно будет обновить автоматически. |
30.05.2009, 17:17 | #39 |
Мафиози
Регистрация: 11.09.2008
Адрес: <H1></H1>
Сообщений: 1,174
Вес репутации: 242
|
Не в том смысле последние... У меня как в ВП, есть внизу ссылки на второй, третий десяток статей...
|
01.06.2009, 13:35 | #40 | |
Эксперт
Регистрация: 18.06.2007
Адрес: Картофель
Сообщений: 2,417
Вес репутации: 355
|
Цитата:
а вот в случае когда много много файликов, то тут деградация производительности уже будет значительнее... лучше считывать с диска один 200Кбайтный файл и потом выводить нужные статьи, чем держать папку с 500 .txt'шками правильно, можно вообще перерисовывать блочек с нужным интервалом "обновления", по мере устаревания filemtime() параметра относительно текущего time()... |
|
Опции темы | |
|
|
Похожие темы | ||||
Тема | Автор | Раздел | Ответов | Последнее сообщение |
Нагрузка на сервер и САПЕ | lincolndsp | Вопросы по работе системы | 49 | 14.06.2010 10:58 |
Нагрузка на сервер при проверке ссылок | 4X_Pro | Вопросы по работе системы | 3 | 30.11.2009 09:57 |
Нагрузка на сервер | new | Разработка и сопровождение сайтов | 21 | 13.05.2008 21:16 |
Нагрузка на сервер | Skipper | Вопросы по работе системы | 21 | 12.03.2008 15:06 |
Нагрузка на ЦП ботом сапы | Antirex | Вопросы по работе системы | 4 | 20.09.2007 08:54 |
Часовой пояс GMT +3, время: 10:17.