დაახლოებით ერთი თვის წინ GeOlymp-ის საიტის გარეგნული მხარე განვაახლეთ თუმცა ბრაუზერის მხარეს სწრაფად ჩატვირთვისთვის საჭირო ოპტიმიზაცია არ გამიკეთებია. ამ პოსტში შევეცდები იმ თემებზე ვისაუბრო, რასაც ამ პროცესზე აქვს გავლენა; ამასთან, რეალურად შევასრულო ისინი საიტზე და ჩატვირთვის დროები შევადარო.
ახლა ქრომი მაჩვენებს, რომ ჯეოლიმპის ერთ-ერთი მთავარი გვერდის გახსნის დროს სერვერზე 42 მოთხოვნა იგზავნება, 307.9 კილობაიტი იტვირთება და 1.2 – 2.3 წამს ანდომებს გვერდის ჩატვირთვას. შევეცდები ამის გაუმჯობესებას..
1. ნაკლები რაოდენობის HTTP მოთხოვნის გაგზავნა სერვერზე
ერთ-ერთი ყველაზე მნიშვნელოვანი წესი, რომელსაც შესამჩნევი შედეგი აქვს, სერვერზე გასაგზავნი HTTP მოთხოვნების შემცირებაა. ეს მოთხოვნები იგზავნება თვითონ html ფაილის და ასევე თითოეული კომპონენტის წამოსაღებად, რასაც საიტი შეიცავს (სურათები, css და javascript ფაილები, ა.შ.).
http მოთხოვნა საკმაოდ მძიმე ოპერაციაა, რადგან მის შესასრულებლად საჭიროა DNS სერვერთან მისვლა, დომენის შესაბამისი ip მისამართის მიღება, მიღებული მისამართის საშუალებით ჰოსტ სერვერის მიგნება და ბოლო ბოლო ვებსერვერიდან რესურსის წამოღება. თუ ეს პუნქტები გეოგრაფიულადაც დაშორებულია (მაგალითად სხვადასხვა ქვეყნებში), მოთხოვნას უფრო მეტი სერვერის და ქსელის გავლა უწევს და დრო შესაბამისად იზრდება (ილუსტრაცია: როგორ მუშაობს ინტერნეტი).
მართალია, ბრაუზერს შეუძლია დომენიც და რესურსებსაც კეშში შეინახოს, მაგრამ როდესაც მომხმარებელი პირველად ხსნის გვერდს ან კეში ცარიელი აქვს, მისთვის საიტის ჩატვირთვა ბევრად დიდ დროს წაიღებს. მე პირადად არ შემიდგენია სტატისტიკა, თუმცა, მაგალითად, Yahoo-მ ჩაატარა გამოკვლევა, რომ ენახა რამდენი მომხმარებელი ნახულობდა საიტს ცარიელი კეშით და იმ დროს მათი რაოდენობა საშუალოდ მომხმარებლების 40-60% პროცენტი გამოვიდა.
საიტის სხვადასხვა კომპონენტების ჩამოტვირთვას კიდევ ერთი ცუდი თვისება აქვს. ისინი პარალელურ რეჟიმში არ იტვირთებიან, არამედ ერთმანეთს ელოდებიან.
HTTP / 1.1 სპეციფიკაციის მიხედვით რეკომენდირებულია, რომ კლიენტიდან ერთ დომენთან პარალელურად მხოლოდ ერთი ან ორი კავშირი არსებობდეს. თუმცა ახალი ბრაუზერები ამ რეკომენდაციას არ ითვალისწინებდნენ და 4-მდე ან 6-მდე აქვთ რაოდენობა შეზღუდული. ეს პარამეტრი მომხმარებელს შეუძლია თავისი ბრაუზერის კონფიგურაციიდან შეცვალოს და კავშირების ლიმიტი გაზარდოს. შესაბამისად, მეტი რესურსი ჩამოტვირთოს პარალელურად.
ერთდროულად ჩატვირთების რაოდენობა მომხმარებლისგან დამოუკიდებლადაც შეიძლება გაიზარდოს, რადგან შეზღუდვა დომენის სახელს უკავშირდება. თუ ჩვენ რესურსებს სხვადასხვა სერვერზე ან დომენების ალიასებზე და ქვედომენებზე გავანაწილებთ, მაშინ ბრაუზერები მათ პარალელურად წაიღებენ. აქ უნდა აღინიშნოს, რომ ასეთი ჩატვირთვების რაოდენობის გაზრდის პროპორციულად კლიენტის პროცესორზე იზრდება დატვირთვა. რა თქმა უნდა, ეს ძალიან ფარდობითი მაჩვენებელია, რადგან სხვადასხვა პროცესორზე სხვადასხვა შედეგი იქნება.
როგორ შევამციროთ HTTP მოთხოვნების რაოდენობა?
1.1. საიტის დიზაინში ხშირად გამოიყენება პატარა ილუსტრაციები, ხატულები, სხვადასხვა გრაფიკული ელემენტები. მათი უმეტესობა ისეთი სახით გვხვდება საიტზე, რომ შესაძლებელია css-ში აღვწეროთ და css sprite-ის სახით შევინახოთ: ყველა ილუსტრაცია არის ფაილში და შემდეგ css-ის საშუალებით ”კოორდინატების” მითითებით გამოვაჩენთ ილუსტრაციის ნაწილს.
მაგალითად, Facebook-ის სპრაიტი ასე გამოიყურება:
სპრაიტის შექმნის დროს ჯობია რაც შეიძლება ახლოს იყოს ფაილები განლაგებული, რომ ფაილის ზომა დიდი არ გამოვიდეს. სურათის ოპტიმიზაციაზე შემდეგ უფრო დეტალურად დავწერ.
ამ პროცესის ავტომატიზაციისთვის არსებობს რამდენიმე საიტი, მაგრამ მე ხელით მირჩევნია ხოლმე დალაგება და ზომების აღება.
1.2. HTTP მოთხოვნების რაოდენობა ასევე შეიძლება შევამციროთ css და javascript-ის ფაილების გაერთიანებით. მართალია, ხშირ შემთხვევაში კონკრეტულ გვერდზეა დამოკიდებული, თუ რომელი სკრიპტის და სტილის ფაილებს გამოიყენებს, მაგრამ მაინც შეგვიძლია გამოვარჩიოთ ისეთი ნაწილები, რომელიც ყველასთვის საჭიროა და შესაბამისად გავაერთიანოთ ფაილები.
მეორეს მხრივ ფაილების გაერთიანება სხვა პრობლემას ქმნის. თუ პარალელურად ახერხებს ბრაუზერი ჩატვირთვას, არ იქნება კარგი, ყველაფრის ერთ პროცესად ჩატვირთვა ვაიძულოთ. თანაც მას მოსდევს კიდევ ერთი გვერდითი ეფექტი. მაგალითად, iphone, სადაც iOS 3.1.3 ვერსიის სისტემა აქვს, ბრაუზერის კეშში ისეთ კომპონენტებს ინახავს, რომელიც 25.6 კბ-ს არ აღემატება შეკუმშვის გარეშე.
კომპონენტების ჩამოტვირთვის გასაპარალელებლად არსებობს სკრიპტი head.js, რომელიც თავის თავზე იღებს ჩვენი სკრიპტების ორგანიზებას და მათ ჩატვირთვას. ბიბლიოთეკა თავისი სიმარტივით გამოირჩევა და საკმაოდ გავრცელებულია. ბევრმა ჩაატარა შესამოწმებელი ტესტები (მაგალითად, Fero Novak-ის ბლოგზეა პოსტი ამის შესახებ) და უმეტეს შემთხვევაში მართლაც დიდი პროცენტით ასწრაფებს გვერდის ჩატვირთვას, თუმცა ზოგს პრობლემა აქვს მისი სხვა სკრიპტებთან ერთად გაშვების დროს.
მე პირადად არ გამომიცდია და თქვენ თუ იყენებთ ამ სკრიპტს, სიამოვნებით მოვისმენდი შთაბეჭდილებებს.
1.3. მოვერიდოთ Frame-ებს, რამდენადაც შეიძლება. თუ ორი frame გვაქვს, მინიმუმ სამი http მიმართვა იგზავნება – ერთი frameset-ის შიგთავსის წამოსაღებად და ორი მასში არსებული frame-ებისთვის.
2. Content Delivery (Distribution) Network-ის გამოყენება
CDN კომპიუტერების ქსელია, სადაც ერთი და იგივე ინფორმაციის ასლები ინახება. სერვერები ფიზიკურად სხვადასხვა ადგილებშია განლაგებული და როცა მომხმარებელი ინფორმაციის წამოსაღებად მიმართავს სისტემას, მოთხოვნას უპასუხებს მომხმარებელთან ქსელის თვალსაზრისით ყველაზე ახლოს მყოფი სერვერი.
დიდ ინტერნეტ კომპანიებს ხშირად საკუთარი CDN ქსელები აქვთ. თუ აპლიკაციას ძალიან ბევრი მომხმარებელი ჰყავს და სწრაფქმედება მნიშვნელოვანია, მან შეიძლება ასეთი ქსელის პროვაიდერების სერვისი გამოიყენოს (მაგალითად, Amazon CloudFront).
გუგლის CDN ქსელით ჩვენც შეგვიძლია ვისარგებლოთ – Google Libraries API ჯავასკრიპტის გავრცელებულ open-source ბიბლიოთეკებს ინახავს. მაგალითად, თუ საიტზე jQuery გვჭირდება, შეგვიძლია ჩვენი ჰოსტის მაგივრად სკრიპტი გუგლის CDN-დან წამოვიღოთ. ასეთ ჩატვირთვას რამდენიმე უპირატესობა აქვს:
- იქიდან გამომდინარე, რომ ფაილი CDN ქსელშია, ის მომხმარებლის ბრაუზერამდე მოკლე დროში მიაღწევს;
- რადგან სკრიპტი საიტისგან განსხვავებულ დომენზეა, ბრაუზერი მას სხვა რესურსების პარალელურად ჩატვირთავს;
- იგივე მისამართს სხვა ათასობით საიტი იყენებს ბიბლიოთეკის ჩასატვირთად. თქვენი საიტის მომხმარებელს დიდი ალბათობით ფაილი უკვე ბრაუზერის კეშში ექნება და წამოღება აღარ დასჭირდება.
3. CSS და Javascript კოდები გარე ფაილებში
სასურველია, რომ css სტილები და ჯავასკრიპტის კოდი რამდენადაც შეიძლება გარე ფაილებში იქნას გატანილი. როდესაც, მაგალითად, html ფაილში inline სტილებს ვწერთ, ამით ფაილის ზომასაც ვზრდით. გარე ფაილებს ბრაუზერი კეშში ინახავს. გვერდზე მეორედ შესვლის დროს ის მათ კეშიდან აიღებს და ხელმეორედ არ მიმართავს ვებ სერვერს.
4. Expires ჰედერი სტატიკურ ფაილებზე
როდესაც რაიმე რესურსზე ვგზავნით HTTP მოთხოვნას, ვებ სერვერი HTTP პასუხს აყოლებს Expires ჰედერს, რომელიც ბრაუზერს აცნობებს, რამდენი ხანი შეიძლება შეინახოს რესურსი თავის კეშში. ამ ჰედერს ითვალისწინებენ როგორც ბრაუზერები, ისე პროქსი სერვერები; რესურსებს შესაბამისად აკეშირებენ და მომხამრებელს ხშირად აღარ უწევს მათი ხელახლა წამოღება სერვერიდან.
შეგვიძლია ვებ სერვერი ისე დავაკონფიგურიროთ, რომ გარკვეულ ფაილებზე ან ტიპებზე შესაბამის Expires ჰედერში შორი მომავლის თარიღი მიუთითოს (თუმცა ერთ წელს არ უნდა გადააჭარბოს HTTP / 1.1 სპეციფიკაციის მიხედვით).
ამ მეთოდს უარყოფითი მხარე იგივე აქვს, რაც დადებითი. ბრაუზერი და პროქსი სერვერი ფაილებს არ წამოიღებს სერვერიდან, მაშინაც კი, თუ მათ განვაახლებთ, ამიტომ ასეთ განახლებებზე ფაილის სახელების შეცვლა იქნება საჭირო.
თუ აპაჩის ვებ სერვერს იყენებთ, mod_expires ან mod_header-ს მოდულების კონფიგურირება ამ ბმულზე შეგიძლიათ ნახოთ: Using a far future expires header
5. CSS და Javascript ფაილების ზომის შემცირება
სტილების და ჯავასკრიპტის კოდის წერის დროს მნიშვნელოვანია, რომ კოდი სუფთად და დალაგებულად დაიწეროს. ეს პროგრამისტს მის მოდიფიკაციებს და დროთა განმავლობაში შენახვას გაუადვილებს, მაგრამ ბრაუზერისთვის არ აქვს მნიშვნელობა რა განლაგებით ეწერება ტექსტი ფაილში. არსებობს ბევრი სხვადასხვა მინიმიზატორი, რომელიც ჩვენი კოდიდან ცარიელ ადგილებს წაშლის, ლოკალურ ცვლადებს სახელებს დაუპატარავებს და ა.შ.
რაც არ უნდა გასაკვირი იყოს, ასეთი მინიმიზაციის შედეგად ხშირად კოდი ძალიან მცირდება ზომაში.
მაგალითად jQuery-ის 1.7 ვერსიის სრული სახით მოცემული ფაილი 229 კილობაიტია, როცა მინიმიზირებული და შემდეგ gzip-ით შეკუმშული ფაილი მხოლოდ 31 კბ.
6. ტექსტური ფაილების შეკუმშვა Gzip მეთოდით
ტექსტური ფაილების ზომა დაზიპვის შემდეგ ძალიან მცირდება – 10-ჯერ, 20-ჯერ..
კარგი იქნებოდა, რომ ბრაუზერთან დაზიპული ფაილები იგზავნებოდეს, რაც ცხადია ბევრად სწრაფად მივიდოდა. სწორედ ამას აკეთებს ვებ სერვერი, თუ შესაბამისად დავაკონფიგურირებთ. ის კუმშავს ფაილს და უგზავნის ბრაუზერს, რომელიც ზიპიდან სრულ ფაილს აღადგენს და დაარენდერებს.
მთელი პროცესი ორი ძირითადი ნაბიჯისგან შედგება:
- თუ ბრაუზერს შეუძლია შეკუმშულ ფაილთან გამკლავება, ის ვებ სერვერთან გაგზავნილ მოთხოვნას შემდეგი სახის ჰედერს აყოლებს:
Accept-Encoding: gzip, deflate
gzip და deflate შეკუმშვის მეთოდებია. ბევრ საიტზე წერია, რომ gzip ყველაზე კარგი არჩევანია, მაგრამ ტესტების მიხედვით მე პირადად ვერ მივხვდი, რატომ არის სხვებზე ბევრად უკეთესი. ტესტები და შედარება შეგიძლიათ ამ ბმულზე ნახოთ: Compression Tests - ასეთი ინფორმაციის მიღების შემდეგ, თუ სერვერს შეუძლია ფაილების შეკუმშვა, ის ბრაუზერს შეკუმშულ ფაილს დაუბრუნებს და ამას
Content-Encoding: gzip
ჰედერით შეატყობინებს, წინააღმდეგ შემთხვევაში ჩვეულებრივ გაგზავნის პასუხს.
ასეთი სახის შეკუმშვა უმჯობესია მხოლოდ ტექსტურ ფაილებზე გამოვიყენოთ, და არა, მაგალითად, სურათებზე ან pdf ფაილებზე, რადგან ისინი ისედაც შეკუმშულ ფორმატშია და ფაილის ზომა შეიძლება პირიქით გაიზარდოს.
Apache-ს ვებ სერვერის შემთხვევაში კონფიგურაციის ინსტრუქცია შეგიძლიათ ნახოთ საიტზე: How To Optimize Your Site With GZIP Compression
იმის გაგება, შეკუმშული მოდის თუ არა სერვერიდან ფაილები, პასუხის ჰედერებში შეიძლება. ან მაგალითად Http compression test საიტზე.
7. სურათების ფორმატები და შეკუმშვა
პირველ რიგში, ალბათ ისედაც არავინ აკეთებს, მაგრამ მაინც აღვნიშნავ, რომ სურათები html გვერდზე გამოყვანის დროს არ უნდა დავაპატარაოთ, არამედ სერვერზე უნდა გვქონდეს ის შესაბამის ზომებში შენახული და გვერდზე მხოლოდ საჭირო ზომის სურათი ჩავტვირთოთ.
სურათის ზომა მნიშვნელოვნად არის დამოკიდებული იმაზე, თუ როგორ ფორმატში შევინახავთ. ამის შესარჩევად უნდა ვიცოდეთ რომელი ფორმატი როგორი სახით ინახავს მას.
Clever PNG optimization techniques
Clever JPEG optimization techniques
ზოგადად მე ასეთ წესს ვიყენებ, რომ თუ ფოტოს მსგავსი გამოსახულებაა, jpg-თი ვკუმშავ, ხოლო გრადაციებს ან ცოტა ფერიან, მარტივ გამოსახულებებს png-ში და gif-ში ვამოწმებ. შედეგს ვადარებ და ვირჩევ.
თურმე კიდევ შეიძლება მიღებული png სურათის გაუმჯობესება. მაგალითად, არსებობს ასეთი საიტი Smush it! რომელიც ატვირთულ ფაილებს დანაკარგის და ხარისხის გაფუჭების გარეშე აოპტიმიზირებს.
ჯეოლიმპის შემთხვევაში გავაერთიანე წვრილ წვრილი პატარა ზომის ჯავასკრიპტის ფაილები. ზოგან შეუკუმშავს ვიყენებდი და გამოვასწორე..
ძირითადი css ფაილი მინიმიზაციის შემდეგ 27%-ით შემცირდა ზომაში და 53.2კბ-დან 38.5კბ-ზე ჩამოვიდა.
.png ფაილები smushit საიტზე გატარების შემდეგ ჯამში 140.76 კბ-ით ანუ 49.68%-ით შემცირდნენ.
განახლებულ საიტზე იგზავნება 29 http მოთხოვნა, ჯამში 173 კბ და მთლიანი ჩატვირთვის დრო საშუალოდ 0.8 – 1.0 წამია.
ანუ, კეშირების გარეშე ასეთი სურათია
ძველი | ახალი | გაუმჯობესება | |
მოთხოვნები | 42 | 29 | 30.9% |
ფაილების ზომა | 307.9 | 173 | 43.81% |
ჩატვირთვის დრო | 1.2 – 2.3 | 0.8 – 1.0 | ~40% |
აქ gzip-ით შეკუმშვა არ შედის, იმიტომ, რომ მანამდეც ჩართული იყო ის, მაგრამ შეკუმშვის გარეშე 173 კილობაიტის ნაცვლად დაახლოებით 432 კილობაიტი გამოვიდოდა.
იმავე გვერდის refresh-ის შემდეგ კეშირების წყალობით მხოლოდ 15 კილობაიტი იტვირთება და onload-მდე დრო საშუალოდ 0.4 წამია.
დრო ორჯერ შევამცირეთ, მაგრამ სამწუხაროდ ეს საკმარისი არ არის რომ იგივე დროში ორჯერ მეტ მომხმარებელს მოემსახუროს საიტი. ამისთვის სერვერის მხარეს იქნება ცვლილებები საჭირო.
შეიძლება დაემატოს კიდევ ზოგიერთი script-ის გადატანა head-დან body-ს ბოლო ნაწილში (რაც შენ ისედაც გაქვს გამოყენებული GeOlymp ზე ;)). ამ ტექნიკის საშუალებით მომხმარებელი უფრო მალე იღებს დახატულ გვერდს, შესაბამისად შეუძლია დაიწყოს მოქმედება და არ დაელოდოს ყველა სკრიპტის ჩამოტვირთვას.
@არჩილა :)) მართალი ხარ 🙂 უბრალოდ სკრიპტების თანმიმდევრობის შესახებ არ შემიძლია რამე ზოგადად დავწერო. ყოველთვის სპეციალურად მიწევს ხოლმე მაგათი დალაგება.
მაგალითად asp.net mvc თვის არის ბიბლიოთეკა, რომელსაც აქვს საშუალება მინიფიკაცია, გაერთიანება, თანმიმდევრობის დალაგება და კიდევ ბევრი რამ (Cassette automatically sorts, concatenates, minifies, caches and versions all your JavaScript, CoffeeScript, CSS, LESS and HTML templates) გააკეთოს ავტომატურად. ძალიან კარგი რაღაცაა ნამდვილად – http://getcassette.net/
head.js ჯერჯერობით არ არის google-ს CDN-ში
http://code.google.com/apis/libraries/devguide.html#Libraries
http://code.google.com/p/google-ajax-apis/issues/detail?id=548
ვაჰ, thread-მა შემაცდინა 🙂 მადლობა
head.js-ზე მეც ჩავატარე ტესტირება და კარგი შედეგები მივიღე. ოპტიმიზაციის გარდა კარგი ორგანიზება შეიძლება labelებით და სკრიპტის ჩატვირთვისას callbackებით. +1 head.js-ს 🙂
კარგი პოსტია. სასიამოვნოდ იკითხება და ინფორმიაციით არის დახუნძლული.
მალაჩინა! 🙂
შენის ნებართვით ერთი-ორს მეც მივამატებ:
1) HTML/DOM ელემენტეიბს რაოდენობა, რაც ნაკლები მით უკეთესი…
2) Expire header-ები თუ არა Etag-ების დამატება…
3) სხვა სერვერზე request-ების შემცირება… DNS lookup.
მადლობა საინტერესო პოსტისთვის.
ყველაფერი იდეალურადაა აღწერილი, ერთი ორს მეც დავამატებ:
1. თუ იყენებთ FB -ს API-ს და გიწევთ JS ფაილის ან IFRAME ის ჩასმა FB დან ჯობია ასინქრონულად ატვირთოთ.
2. ყველაფერი (js, css, img), ფაილები უმჯობესია იყოს განსხვავებულ დომენზე, ან ქვედომენზე, რადგან HTTP request ის დროს cookie ები არ გაჰყვება ქსელში. თუმცა ეს ნამეტანი advanced ოპტიმიზაციის დროს სეიძლება გაითვალისწინოს კაცმა.
3. სერვერის მხარეზე თუ დაწერ პოსტს კარგი იქნება, ერთერთი უმნიშვნელოვანესი სერვერის მხარეს ჩემი აზრით ქეშირებაა ))
შენიშვნა:
ჯობია ასინქრონულად ჩატვირთოთ*
ოთო, უჩა,
კარგი შენიშვნებია 🙂 ეს fb-ს სკრიპტები სულ ჭედავს ხოლმე ყველაფერს.
კარგი სტატიაა ელენე! ძალიან! სწორი მიდგომაა დეველოპმენტის მხრიდან. უდაოდ. ბევრს ვურჩევ ამის წაკითხვას.
ჩემი მხრიდან, როგორც ვებადმინი ერთ-ორ სიტყვას დავამატებ რაც დეველოპერებისთვის საინტერესო იქნება (ყველაფერს ვერ მოვყვები, ეგ ჯობს ადმინებს მიუგდოთ (: ):
სტატიკური კონტენტი:
1. ტრაფიკის დედუპლიკაცია:
etag – თანამედროვე ვებსერვერები მას თავად ამატებენ და თუ ფაილის ცვლილება ხდება ლოკალურად და კონტენტი დინამიური არ არის – ავტომატურად კლიენტი შესაბამის კონტენტს თავიდან აღარ გადოიწერს. დამატებით ამ საკითხის დინამიური საშუალებებით მოგვარება უარესია – მეტი რესურსების გამოყენებისკენ იწვევს.
რეკომენდირებულია relatime პარამეტრის გამოყენება ფაილური სისტემისთვის, თუ access time-dependent კონტენტი არ არის სერვერზე. ზოგ შემთვევაში მისი დათვლა inode-ითაც ხდება (დიდი აზრი არ არის).
ცალკე ფაილებისთვის expires-ის მითითების დიდ აზრს ვერ ვხედავ თუ საუბარი არ არის რაღაც კონკრეტული ტიპის ფაილზე (ფილმი, მუსიკა), ჩვეულ ფაილებში პრობლემებს/მოუხერხებლობას უფრო გამოიწვევს ვიდრე მოაგვარებს.
ყურადღება მიაქციეთ იმას, რომ ეს ეხება სტატიკურ კონტენტს.
ვერდიქტი: expire დაამატეთ მხოლოდ დიდ ფაილებს, რომლებსაც ნამდვილად არ გამოცვლით. თქვენი ნერვები და დრო მეტი ღირს ვიდრე სერვერის და ტრაფიკის 1 კილობაიტი. Try to not use etag. 🙂
2. gzip, deflate – ერთი და იგივეა თითქმის. არავითარ შემთხვევაში არ გამოიყენოთ არატექსტურ ფაილებზე (სწორად წერია სტატიაში), რადგან ეს დატვირთვის გაზრდას გამოიწვევს. ქსელი უფრო იაფია ვიდრე სისტემური რესურსი. gzip-ს უფრო ხშირად მაშინ იყენებენ, როდესაც harware encoder არის სერვერზე (მაგ. http://www.aha.com/).
ვერდიქტი: ადმინმა მიხედოს, ფორსირებას ნუ მოახდენთ სხვა მეთოდებით, ზედა დონეზე კომპრესია არაეფექტურია.
ბ. დინამიური კონტენტი
1. ყოველთვის გამოიყენეთ გარე ინტერფეისი (CGI) დინამიური კონტენტის დასამუშავებლად – ეს უსაფრთხოებასაც ზრდის, მოქნილობასაც და ზოგად წარმადობასაც. mod_php = ვებადმინის მტერი სათამაშო.
ვერდიქტი: ადმინ, გააკეთე
2. Opcode caching is a good thing (c) – Zend Guard, APC
ვერდიქტი: ადმინ, გააკეთე
გ. ზოგადი
1. HTTP 1.1-related
პრობლემა: MS ISA, MS IE-ზე არ მუშაობს ნორმალურად, მაგრამ კლიენტი ამას ვერ შეამჩნევს.
არ არის Keepalive-ზე რეკომენდირებული დიდი პარამეტრების დაყენება – შეიძლება ადვილად დაიფლუდოთ.
ვერდიქტი: ადმინ, გააკეთე
2. Apache? Good. Worker or prefork?
სტაბილურობა = prefork
რესურსები = worker
შესაბამისად ერთ სერვერზე ჯობს პრეფორკი გამოიყენოთ, კლასტერზე უდაოდ ვორკერი მოიგებს. მითი: “იქ php არ მუშაობს”. მუშაობს. თუ აქვს პატარა წითელი ველოსიპედი.
ვერდიქტი: ადმინ, გააკეთე
@GioMac
🙂 მადლობა. ნამდვილად ძალიან საინტერესო კომენტარია 🙂 უფრო ვრცლად ვნახავ მაშინ მაგ თემებს