我想制作一个网站,整个网站只有一个PHP文件。所有页面都像`index.php?search=关键字`那样生成。
网页的所有内容都放在数据库里面,根据`关键字`查询数据库,生成不同的版面,包括CSS,JS的调用。(当然`关键字`都是事先做好的标签,不是随便可以让客人填写的。数据库分成好几个,分别存放不同的数据,CSS,JS,用户名等……)每个页面大概要调用20次数据库 “20个 while($row= mysql_fetch_array($result))”最后用‘.htaccess’重写URL规则。想询问前辈们。这样制作的网站,会存在哪些问题?PS: 如果租用独立的服务器,LINUX+E6300+1.5G内存+100M,大概可以供多少人在线?
网页的所有内容都放在数据库里面,根据`关键字`查询数据库,生成不同的版面,包括CSS,JS的调用。(当然`关键字`都是事先做好的标签,不是随便可以让客人填写的。数据库分成好几个,分别存放不同的数据,CSS,JS,用户名等……)每个页面大概要调用20次数据库 “20个 while($row= mysql_fetch_array($result))”最后用‘.htaccess’重写URL规则。想询问前辈们。这样制作的网站,会存在哪些问题?PS: 如果租用独立的服务器,LINUX+E6300+1.5G内存+100M,大概可以供多少人在线?
想询问前辈们。这样制作的网站,会存在哪些问题?
………………………………………………………………
嗯,对我很有用,我分析好你的url规律后我就可以写程序把你的资料都抓下来,你不会拒绝get方法吧?一台服务器,不带数据库,一般1000人同时在线就很吃紧,有数据库读写就更少
独立服务器未必独立带宽,这个你也要考虑
与其分成那么多文件,还不如全写进一个文件里。
但是有点担心,说不上来,所有请教大家一起帮我看看会遇到哪些问题?
比如:同时在线人数过多,仅有的一个页面文件,会不会产生错误?负载均衡等怎么做?另外,我想租用国外的服务器,`Network Speed/Connection Speed:100 Mbit/s port`,是不是带宽100M?1.5G内存只能同时支持1000人在线吗?
有什么方法可以防范你的抓取吗?我只知道防SQL注入……
我准备用 "@$_GET['url']"
至于读20次数据库,说句实话,很少看到网站一个页面读这么多次数据库的,一般也就六七次
可以考虑将页面缓存