我想制作一个网站,整个网站只有一个PHP文件。所有页面都像`index.php?search=关键字`那样生成。
网页的所有内容都放在数据库里面,根据`关键字`查询数据库,生成不同的版面,包括CSS,JS的调用。(当然`关键字`都是事先做好的标签,不是随便可以让客人填写的。数据库分成好几个,分别存放不同的数据,CSS,JS,用户名等……)每个页面大概要调用20次数据库 “20个 while($row= mysql_fetch_array($result))”最后用‘.htaccess’重写URL规则。想询问前辈们。这样制作的网站,会存在哪些问题?PS: 如果租用独立的服务器,LINUX+E6300+1.5G内存+100M,大概可以供多少人在线?

解决方案 »

  1.   


    想询问前辈们。这样制作的网站,会存在哪些问题?
    ………………………………………………………………
    嗯,对我很有用,我分析好你的url规律后我就可以写程序把你的资料都抓下来,你不会拒绝get方法吧?一台服务器,不带数据库,一般1000人同时在线就很吃紧,有数据库读写就更少
    独立服务器未必独立带宽,这个你也要考虑
      

  2.   

    每个页面大概要调用20次数据库 “20个 while($row= mysql_fetch_array($result))”如果同时1000人在线,你的小站就瘫了
      

  3.   

    接楼上的,一个文件一个文件的重复复制,感觉太麻烦,复制出来的页面,还是需要进行‘20次的数据库’读取。 
    与其分成那么多文件,还不如全写进一个文件里。
    但是有点担心,说不上来,所有请教大家一起帮我看看会遇到哪些问题?
    比如:同时在线人数过多,仅有的一个页面文件,会不会产生错误?负载均衡等怎么做?另外,我想租用国外的服务器,`Network Speed/Connection Speed:100 Mbit/s port`,是不是带宽100M?1.5G内存只能同时支持1000人在线吗?
      

  4.   

    2楼的,我这样的网站,也只有用 'get'  了.
    有什么方法可以防范你的抓取吗?我只知道防SQL注入……
    我准备用 "@$_GET['url']" 
      

  5.   

    单一入口当然好,管理维护比较方便,建议你看看MVC吧,你会更喜欢的
    至于读20次数据库,说句实话,很少看到网站一个页面读这么多次数据库的,一般也就六七次
    可以考虑将页面缓存
      

  6.   

    实在不行的话,用CRON设置,每1小时自动生成一次所有的页面。