Wygoda ogromna i na prawde nie ma czego popsuc. Jesli mowa o CMSie gdzie Ty publikujesz content to na prawde nic tego nie pobije.
Zgodnosc jest pelna z kazda przegladarka i kazdym systemem operacyjnym jaki tylko gada TCP i ma dowolna przegladarke WWW. Inna kwestia jest to, czy szablon ktory przygotujesz i ktory CMS wypelni danymi (i zapisze plik wynikowy) bedzie przystosowany do kazdej przegladarki... ale to zalezy od usera (ownera).
SEO - linki sa przyjazne i sa odwzorowane na pelne sciezki w systemie plikow. Zawsze mozna dodac mod_rewrite - jedno drugiemu nie przeszkadza (np wyciac boty, hotlinkowanie, itp).
Wydajnosc taka jakbys pobral index.html ktory mowi "It works!" i prawde mowiac to jest to samo. Publikujesz nowy tekst, jest on zapisywany w bazie, opala sie skrypt ktory leci przez baze i generujesz wszystkie katalogi jakie potrzeba, wszystkie pliki HTML, itd. Grafika jest umieszczana we wlasciwych miejscach, CSS, JS jesl jest tez... dalej strone mozesz spakowac+ftp/rsync/cokolwiek i miec sam czysty content bez zadnego oskryptowania ktore mozna atakowac.
... i to nie to samo co nawet najlepiej napisany kod PHP, bo ten trzeba uruchomic, zjada zasoby i wymaga tysiecy linii kodu zrodlowego ktory musi zostac skompilowany, zaladowany do pamieci i dzialac jako interpreter, pozniej na zawolanie wczytac plik, przeanalizowac jego zawartosc, skompilowac zawarty tam kod i wykonac - to zajmuje czas, zajmuje pamiec, wydluza czas odpowiedzi... dodaj do tego jeszcze baze danych i zbiera sie niezla miarka.
Miejsce na nowe technologie jest i to nie malo... wiekszosc osob uwaza to co pisze za przezytek - wiem... i w ogole mi to nie przeszkadza. Po prostu to co pisze to wynik miesiecy solidnych testow na roznych platformach w roznych konfiguracjach. Ty wiesz gdzie ja pracuje i co robie, wiec wiesz po co mi sa potrzebne tak bezpieczne i wydajne rozwiazania.
Przyklad sprzed miesiaca:
Feed danych (XML) dla jednej ze stron - widget we flashu, pobiera dane co 60 sekund... srednio okolo 20-30 trafien na sekunde w pierwszym tygodniu jak strona poszla live. XML generowany przez skrypt w PHP ktory robil 1 proste zapytanie do bazy - maszyna zatkana momentalnie, strony sie nie laduja, apache nie reaguje, PHP uzywa 90% CPU, kolejne 10% to baza, swap sie konczy bo RAMu braklo chwile temu (4GB). System lezy, OOM Killer pozdrawia
Modyfikacja 1:
dodanie xcache, wydajnosc w gore o okolo 20% ale to nadal za malo - mamy 26 do 40 zapytan na sekunde, nadal PHP zjada >3/4 RAMu i nie wyrabia z obsluga kolejnych trafien
Modyfikacja 2:
koder ktory to napisal i nie pomyslal o wydajnosci i pojemnosci serwera (a doslownie mowiac nie dotarlo do niego ze serwer to nie studnia bez dna) dostaje opierdol od szefostwa bo polozyl zafundowal nam DoS'a - stalismy sie ofiarami wlasnego sukcesu - placimy podatek od glupoty... koles modyfikuje skrypt tak, ze ten nie pyta bazy o dane czesciej niz raz na minute, ostatni timestamp zapisuje w pliku razem z wynikiem zapytania do bazy. PHP zjamuje nadal 3/4 RAMu, obciazenie bazy staje sie malo widoczne ale CPU caly czas >90% i kazdy podmuch ruchu powoduje zatkanie systemu...
Modyfikacja 3:
odbieram kolesiowi dostep do serwera i wysylam na kurs programowania w PHP, odpalam jego skrypt co minute z cron'a i zapisuje wynik do pliku tekstowego, odpalam mod_rewrite i przekierowuje URL gdzie flash szuka XMLa na plik tekstowy... CPU wraca do 5-7%, ilosc obsluzonych polaczen przekracza 120/sek w ciagu pierwszych minut po wprowadzeniu zmian, zuzycie RAM wraca do normy, wentylatory w serwerach zmniejszaja obroty...
Serwowanie statycznych plikow zalatwia problem... ostatnia modyfikacja to wylaczenie mod_rewrite (bo analiza regul tez zajmuje czas i I/O dyskow w wiekszosci przypadkow) i opisanie calosci przy uzyciu mod_alias w konfiguracji hosta. I jeszcze jedna uwaga - napisalem "wentylatory w serwerach" - powyzej podalem srednie dane z clustra skladajacego sie z 4 calkiem fajnych maszyn.
Czy teraz to co napisalem wczesniej o generowaniu statycznego pliku i serwowaniu go kiedy jest taka potrzeba wyglada nieco inaczej? Do tego jeszcze dodaj fakt ze wiele prywatnych stron jest hostowana na wspoldzielonych serwerach gdzie iles osob uzywa PHP i gownianego kodu ktory ma dzialac ale nie pomyslano o wydajnosci. Jesli masz strone na takim wlasnie serwerze, wtedy roznice bedzie kolosalna!
UPDATE:
Ostatni argument w dyskusji jest taki, ze systemy CMS nie potrzebuja automatyki/skryptow za kazdym razem kiedy trzeba wyswietlic dane. Jesli masz na stronie forum to ono oczywiscie potrzebuje kodu aby dzialac ale wyprzedzajac pytanie... forum to z definicji nie jest CMS.