Вернуться   Форум SAPE.RU > Общие вопросы > Разработка и сопровождение сайтов

-->
Ответ
 
Опции темы
Старый 17.08.2009, 13:28   #21
Эксперт
 
Аватар для seocore
 
Регистрация: 18.06.2007
Адрес: Картофель
Сообщений: 2,417
Вес репутации: 356
seocore - прекрасное будущееseocore - прекрасное будущееseocore - прекрасное будущееseocore - прекрасное будущееseocore - прекрасное будущееseocore - прекрасное будущееseocore - прекрасное будущееseocore - прекрасное будущееseocore - прекрасное будущееseocore - прекрасное будущееseocore - прекрасное будущее
По умолчанию

Цитата:
Сообщение от Alexey Посмотреть сообщение
Я имел в виду, что у каждого сайта есть странички, которые кэшировать нельзя, либо невозможно в виду того, что они разные у разных людей
все можно кешировать, даже там где идет подсчет, можно сначала складывать данные в MEMORY MySQL таблицы, а потом синхронизировать, можно просто складывать в ОЗУ, а через N-ное время сбрасывать в базу и т.п.

Цитата:
Сообщение от Alexey Посмотреть сообщение
Поэтому nginx не сможет абсолютно все кэшировать. Впрочем, такая ситуация нормальна и типична для каждого сайта.
может кешировать, к примеру содержимое $_COOKIE (т.е. ту же сессию пользователя) можно дописать в паттерне обращения к memcached'у, следовательно nginx будет забирать для каждого пользователя страничку индивидуально из кеша

Цитата:
Сообщение от Alexey Посмотреть сообщение
Ненормально и не типично то, что перед тем как отдаться пользователю, вся страница будет загружаться в оперативную память.
вообще ненормально порождать "долгоиграющие" скрипты, так как 1 процесс Апач с тем же mod_php выжирает приличное количество ОЗУ, что в случае большого количества "форков" полностью забьет все ОЗУ и пойдет в своппинг

Цитата:
Сообщение от Alexey Посмотреть сообщение
Получится, что если к вашему сайту откроют тысячу одновременных коннектов, сделают запрос, но не будут читать данные - все тысяча страниц будут находиться в это время в оперативной памяти. А это уже чревато тяжкими последствиями.
прааальна, но:
1) количество коннектов можно четко регулировать еще на уровне файрвола
2) количество обращений от фронтэнда к бэкэнду, можно строго залимитировать допустим на уровне 150 конкурентных запросов, т.е. при большем количестве выдавать тот же 504, 502... но при этом не "ложить" сервер в глубокий своп...

Цитата:
Сообщение от Alexey Посмотреть сообщение
P.S: при таком подходе так же потеряются куки, REMOTE_ADDR и куча других полезных вещей, так что даже если там с производительностью будет и хорошо, то работать это все равно будет криво.
все можно реализовать...

кончено, надо кешировать по возможности все на уровне скрипта, и постараться ускорить генерацию скрипта до минимального значения по времени, также надо постараться сократить обращения к io ... т.е. все кеши хранить в ОЗУ, аналогично надо постараться сократить MySQL запросы до минимума, при этом не порождать сложные объединенные запросы ... лучше сделать 10-20 простых запросов к базе и потом закешировать результат в ОЗУ, чем 10-20 запросов объединить в один сложный запрос...

а вообще все эти рассуждения пространственные, т.е. без реальной практики нет смысла рассуждать о нагрузке, т.е. это все достаточно индивидуально для каждого конкретного сайта
seocore вне форума   Ответить с цитированием
Старый 17.08.2009, 15:01   #22
Новичок
 
Аватар для Manfred
 
Регистрация: 08.05.2009
Сообщений: 30
Вес репутации: 183
Manfred на пути к лучшему
По умолчанию

то что регулярками $_SERVER['REQUEST_URI'] расчщеплять это ясно. а как лучше вызывать физический файл, если file_get_contents не подходит. Не редиректом же! посоветуйте поконкретнее пожалуйста!
Manfred вне форума   Ответить с цитированием
Старый 17.08.2009, 16:41   #23
Эксперт
 
Аватар для seocore
 
Регистрация: 18.06.2007
Адрес: Картофель
Сообщений: 2,417
Вес репутации: 356
seocore - прекрасное будущееseocore - прекрасное будущееseocore - прекрасное будущееseocore - прекрасное будущееseocore - прекрасное будущееseocore - прекрасное будущееseocore - прекрасное будущееseocore - прекрасное будущееseocore - прекрасное будущееseocore - прекрасное будущееseocore - прекрасное будущее
По умолчанию

Цитата:
Сообщение от Manfred Посмотреть сообщение
то что регулярками $_SERVER['REQUEST_URI'] расчщеплять это ясно. а как лучше вызывать физический файл, если file_get_contents не подходит. Не редиректом же! посоветуйте поконкретнее пожалуйста!
подходит file_get_contents, просто не надо делать http://.../, а дергать именно сам файл с диска
seocore вне форума   Ответить с цитированием
Старый 18.08.2009, 12:26   #24
Новичок
 
Аватар для Manfred
 
Регистрация: 08.05.2009
Сообщений: 30
Вес репутации: 183
Manfred на пути к лучшему
По умолчанию

Цитата:
Сообщение от seocore Посмотреть сообщение
подходит file_get_contents, просто не надо делать http://.../, а дергать именно сам файл с диска

Зелёная морда смущает. Это прикол?

Кстати а при такой констукции post запросы вообще пройдут?
Manfred вне форума   Ответить с цитированием
Старый 18.08.2009, 15:58   #25
Эксперт
 
Аватар для seocore
 
Регистрация: 18.06.2007
Адрес: Картофель
Сообщений: 2,417
Вес репутации: 356
seocore - прекрасное будущееseocore - прекрасное будущееseocore - прекрасное будущееseocore - прекрасное будущееseocore - прекрасное будущееseocore - прекрасное будущееseocore - прекрасное будущееseocore - прекрасное будущееseocore - прекрасное будущееseocore - прекрасное будущееseocore - прекрасное будущее
По умолчанию

Цитата:
Сообщение от Manfred Посмотреть сообщение
Зелёная морда смущает. Это прикол?
Кстати а при такой констукции post запросы вообще пройдут?
это не прикол

POST запросы пройдут, и GET и HEAD и ... все пройдет
seocore вне форума   Ответить с цитированием
Старый 21.08.2009, 17:30   #26
Специалист
 
Аватар для Fredy314
 
Регистрация: 08.05.2008
Сообщений: 197
Вес репутации: 0
Fredy314 не любят в этих краяхFredy314 не любят в этих краяхFredy314 не любят в этих краях
По умолчанию

Использовать http:// в file_get_contents стоит разве что если файл находитсяч на другом сервере, а если он на том-же сервере что и скрипт в котором написана указаная инструкция, то читать напрямую с диска будет значительно быстрее. ведт запросив файл через http:// вы заставите Тотже апач или нгинкс прочитать файл с диска и отправить его через сетевую
__________________
Магазин аккаунтов - почтовые аки, фрихосты, соцсети.
Возможно на заказ.
Fredy314 вне форума   Ответить с цитированием
Старый 22.08.2009, 23:58   #27
Новичок
 
Аватар для Manfred
 
Регистрация: 08.05.2009
Сообщений: 30
Вес репутации: 183
Manfred на пути к лучшему
По умолчанию

Цитата:
Сообщение от Fredy314 Посмотреть сообщение
Использовать http:// в file_get_contents стоит разве что если файл находитсяч на другом сервере, а если он на том-же сервере что и скрипт в котором написана указаная инструкция, то читать напрямую с диска будет значительно быстрее. ведт запросив файл через http:// вы заставите Тотже апач или нгинкс прочитать файл с диска и отправить его через сетевую
ага, всё ясно, спасибо. Значит буду пробовать

PS я не могу уже неделю создать новую тему на данном форуме, просто всегда пишет что-то про "неверный маркер безопасности..." написал о проблеме админу - изменения не произошли

К теме не относится, но если можно в таком случае спрошу здесь... О файле robots.txt
У меня на сайте есть в разных дирректория как и у многих файлик printversion.php - как вы понимаете печатная версия определённой странички.. Как прописать в robots.txt полный запрет на индексацию этих файлов? Если просто /printversion.php - всё равно сканирует всякие printversion.php?id=456 и т.д.... неприятно что в поисковых запросах вываливаются такие печатные версии, а не оригиналы... подскажите как прописать команду на устранение этой нечести..

И ещё вопрос про ЧПУ, опять про метод форстайп.. как я говорил выше, у меня физический путь к файлам будет таким: site.ru/folder/news/news.php?id=5 а ЧПУ по форстайпу, это уже файл без расширения просто site.ru/news
Вопрос перекрёстный с прошлым - а в robots.txt нужно будет прописать запрет на /folder? Или это всё уничтожит? Ведь я хочу чтобы сканировались поисковиками не физические пути к сайту, а ЧПУ, следовательно не смертельно запретить все дирректории на сайте с физическими путями к нему, оставив только файлы в корне для ЧПУ???
Manfred вне форума   Ответить с цитированием
Старый 23.08.2009, 00:30   #28
Специалист
 
Регистрация: 18.05.2009
Сообщений: 176
Вес репутации: 188
Zergalius - как роза среди колючекZergalius - как роза среди колючекZergalius - как роза среди колючекZergalius - как роза среди колючек
Отправить сообщение для Zergalius с помощью ICQ
По умолчанию

User-agent: Yandex
Disallow: /printversion.php

а вообще вам сюда: как яндекс robots.txt понимает
Zergalius вне форума   Ответить с цитированием
Старый 23.08.2009, 11:33   #29
Эксперт
 
Аватар для seocore
 
Регистрация: 18.06.2007
Адрес: Картофель
Сообщений: 2,417
Вес репутации: 356
seocore - прекрасное будущееseocore - прекрасное будущееseocore - прекрасное будущееseocore - прекрасное будущееseocore - прекрасное будущееseocore - прекрасное будущееseocore - прекрасное будущееseocore - прекрасное будущееseocore - прекрасное будущееseocore - прекрасное будущееseocore - прекрасное будущее
По умолчанию

Цитата:
Сообщение от Manfred Посмотреть сообщение
К теме не относится, но если можно в таком случае спрошу здесь... О файле robots.txt
такие странички лучше запрещать к индексации не через robots.txt, а через соответствующий метатег
seocore вне форума   Ответить с цитированием
Старый 23.08.2009, 11:34   #30
Эксперт
 
Регистрация: 05.03.2008
Сообщений: 1,095
Вес репутации: 249
boric - прекрасное будущееboric - прекрасное будущееboric - прекрасное будущееboric - прекрасное будущееboric - прекрасное будущееboric - прекрасное будущееboric - прекрасное будущееboric - прекрасное будущееboric - прекрасное будущееboric - прекрасное будущееboric - прекрасное будущее
По умолчанию

Manfred,
Цитата:
И ещё вопрос про ЧПУ, опять про метод форстайп.. как я говорил выше, у меня физический путь к файлам будет таким: site.ru/folder/news/news.php?id=5 а ЧПУ по форстайпу, это уже файл без расширения просто site.ru/news
Вопрос перекрёстный с прошлым - а в robots.txt нужно будет прописать запрет на /folder? Или это всё уничтожит? Ведь я хочу чтобы сканировались поисковиками не физические пути к сайту, а ЧПУ, следовательно не смертельно запретить все дирректории на сайте с физическими путями к нему, оставив только файлы в корне для ЧПУ???
Да. Вы правильно поняли. Можете запретить индексацию физических папок, к которым у вас будет доступ через ЧПУ с другими адресами.
boric вне форума   Ответить с цитированием
Ответ


Ваши права в разделе
Вы не можете создавать новые темы
Вы не можете отвечать в темах
Вы не можете прикреплять вложения
Вы не можете редактировать свои сообщения

BB коды Вкл.
Смайлы Вкл.
[IMG] код Вкл.
HTML код Выкл.

Быстрый переход

Похожие темы
Тема Автор Раздел Ответов Последнее сообщение
Биллинг делает меня богаче! replicant Ошибки при работе с системой 95 06.03.2009 17:29
Легитимное увеличение ТИЦ, кто-ниудь делает? ozz Деловое сотрудничество 24 13.01.2009 19:55
Что делает links.db Walk Вопросы от новичков 8 04.09.2008 09:50
Кто и зачем делает такие топики? imcl Курилка 25 23.05.2008 19:51
Что делает кнопка [обновить тИЦ и PR] ? new Вопросы по работе системы 2 16.01.2008 11:04


Часовой пояс GMT +3, время: 01:06.