为什么访问网站获取请求以后还要再次获取一下请求?
GET www.youyax.com
200 OK
youyax.com
16.4 KB
180.153.223.74:80
GET #
200 OK
youyax.com
16.4 KB
180.153.223.74:80
第二次获取的是www.youyax.com/#
两次内容一样,都有十几K。第二次的应该不需要吧?你可以firebug之类的跟一下。另外,建议楼主后续时间对网站前段进行一下优化,好多图片都是100多K,有不少可以压缩的,看了一下至少能减少300K之多(毕竟你的没有做cdn而是直接放在服务器上面,这样也减少服务器带宽压力不是~)。同时,类似的图片建议整合成一张大图,也减少请求次数从一定程度上。
GET www.youyax.com
200 OK
youyax.com
16.4 KB
180.153.223.74:80
GET #
200 OK
youyax.com
16.4 KB
180.153.223.74:80
第二次获取的是www.youyax.com/#
两次内容一样,都有十几K。第二次的应该不需要吧?你可以firebug之类的跟一下。另外,建议楼主后续时间对网站前段进行一下优化,好多图片都是100多K,有不少可以压缩的,看了一下至少能减少300K之多(毕竟你的没有做cdn而是直接放在服务器上面,这样也减少服务器带宽压力不是~)。同时,类似的图片建议整合成一张大图,也减少请求次数从一定程度上。
话说就目前来说,还看不出什么性能
期待一些著名的流量大的网站采用去二次开发就是官网首页啊,你自己firebug跟一下就是了——
Request URL:http://www.youyax.com/#
Request Method:GET
Status Code:200 OK
也可以看出现在开源的东西最流行的还是
javascript,jquery插件