20 个客户端远程连接 SQL2000 有 数万条记录,怎样设计程序结构提高性能?我的想法是 本地存有远程端的数据镜像,并且会定时自动更新数据,这样就能不进行大量的数据传输,提高浏览数据时的响应速度。那么网速达到多少时可以不考虑以上的想法呢?各位在设计和实践的过程中又是怎么做的?

解决方案 »

  1.   

    http://community.csdn.net/Expert/FAQ/FAQ_Index.asp?id=186667
    记录数达到6万条数据,约400个用户继续往表里写数据,速度就变慢了?  
    怎么解决?我不想把数据清空。  
    ---------------------------------------------------------------  
     
    记录并不是很大,优化一下索引.  
     
     
     
    SQL  Server中有几个可以让你检测、调整和优化SQL  Server性能的工具。在本文中,我将说明如何用SQL  Server的工具来优化数据库索引的使用,本文还涉及到有关索引的一般性知识。  
     
    关于索引的常识  
         
    影响到数据库性能的最大因素就是索引。由于该问题的复杂性,我只可能简单的谈谈这个问题,不过关于这方面的问题,目前有好几本不错的书籍可供你参阅。我在这里只讨论两种SQL  Server索引,即clustered索引和nonclustered索引。当考察建立什么类型的索引时,你应当考虑数据类型和保存这些数据的column。同样,你也必须考虑数据库可能用到的查询类型以及使用的最为频繁的查询类型。  
     
    索引的类型  
     
    如果column保存了高度相关的数据,并且常常被顺序访问时,最好使用clustered索引,这是因为如果使用clustered索引,SQL  Server会在物理上按升序(默认)或者降序重排数据列,这样就可以迅速的找到被查询的数据。同样,在搜寻控制在一定范围内的情况下,对这些column也最好使用clustered索引。这是因为由于物理上重排数据,每个表格上只有一个clustered索引。  
     
    与上面情况相反,如果columns包含的数据相关性较差,你可以使用nonculstered索引。你可以在一个表格中使用高达249个nonclustered索引——尽管我想象不出实际应用场合会用的上这么多索引。  
     
    当表格使用主关键字(primary  keys),默认情况下SQL  Server会自动对包含该关键字的column(s)建立一个独有的cluster索引。很显然,对这些column(s)建立独有索引意味着主关键字的唯一性。当建立外关键字(foreign  key)关系时,如果你打算频繁使用它,那么在外关键字cloumn上建立nonclustered索引不失为一个好的方法。如果表格有clustered索引,那么它用一个链表来维护数据页之间的关系。相反,如果表格没有clustered索引,SQL  Server将在一个堆栈中保存数据页。  
     
    数据页  
     
    当索引建立起来的时候,SQLServer就建立数据页(datapage),数据页是用以加速搜索的指针。当索引建立起来的时候,其对应的填充因子也即被设置。设置填充因子的目的是为了指示该索引中数据页的百分比。随着时间的推移,数据库的更新会消耗掉已有的空闲空间,这就会导致页被拆分。页拆分的后果是降低了索引的性能,因而使用该索引的查询会导致数据存储的支离破碎。当建立一个索引时,该索引的填充因子即被设置好了,因此填充因子不能动态维护。  
     
    为了更新数据页中的填充因子,我们可以停止旧有索引并重建索引,并重新设置填充因子(注意:这将影响到当前数据库的运行,在重要场合请谨慎使用)。DBCC  INDEXDEFRAG和DBCC  DBREINDEX是清除clustered和nonculstered索引碎片的两个命令。INDEXDEFRAG是一种在线操作(也就是说,它不会阻塞其它表格动作,如查询),而DBREINDEX则在物理上重建索引。在绝大多数情况下,重建索引可以更好的消除碎片,但是这个优点是以阻塞当前发生在该索引所在表格上其它动作为代价换取来得。当出现较大的碎片索引时,INDEXDEFRAG会花上一段比较长的时间,这是因为该命令的运行是基于小的交互块(transactional  block)。  
     
    填充因子  
     
    当你执行上述措施中的任何一个,数据库引擎可以更有效的返回编入索引的数据。关于填充因子(fillfactor)话题已经超出了本文的范畴,不过我还是提醒你需要注意那些打算使用填充因子建立索引的表格。  
     
    在执行查询时,SQL  Server动态选择使用哪个索引。为此,SQL  Server根据每个索引上分布在该关键字上的统计量来决定使用哪个索引。值得注意的是,经过日常的数据库活动(如插入、删除和更新表格),SQL  Server用到的这些统计量可能已经“过期”了,需要更新。你可以通过执行DBCC  SHOWCONTIG来查看统计量的状态。当你认为统计量已经“过期”时,你可以执行该表格的UPDATE  STATISTICS命令,这样SQL  Server就刷新了关于该索引的信息了。  
     
    建立数据库维护计划  
     
    SQL  Server提供了一种简化并自动维护数据库的工具。这个称之为数据库维护计划向导(Database  Maintenance  Plan  Wizard  ,DMPW)的工具也包括了对索引的优化。如果你运行这个向导,你会看到关于数据库中关于索引的统计量,这些统计量作为日志工作并定时更新,这样就减轻了手工重建索引所带来的工作量。如果你不想自动定期刷新索引统计量,你还可以在DMPW中选择重新组织数据和数据页,这将停止旧有索引并按特定的填充因子重建索引。    
      

  2.   

    关注,学习;客户端与远程SQLSERVER2000怎么连接?
      

  3.   

    〉〉客户端与远程SQLSERVER2000怎么连接?sqlserver服务器-->开始菜单-->SQLserver-->服务器网络实用工具-->启用  WinSock代理-->代理地址:(sqlserver服务器IP)-->代理端口-->1433-->OK了
      

  4.   

    唉,楼上的说的并不是我提问的目的,我是用VB编程连接sql2000的
    关于程序处理和连接数据的结构我该怎样设计?
      

  5.   

    感觉也没有什么啊.
    数万条?又不是一次每个客户端都Select.Sql Server啦,而向企业级应用的,你20个客户端不算什么吧?200个考虑一下还差不多.提示一下:在服务器端写COM+程序.管理连接.
      

  6.   

    〉〉客户端与远程SQLSERVER2000怎么连接?>>>sqlserver服务器-->开始菜单-->SQLserver-->服务器网络实用工具-->启用  WinSock代理-->代理>>>地址:(sqlserver服务器IP)-->代理端口-->1433-->OK了這只是代理上網才有用的.其它上網方式沒用的.
      

  7.   


    顶一下, Sql2000标准版支不支持20个客户端同时连接?
      

  8.   

    楼主和我有一样的问题,我要做的数据库平均每月增加130K呢!
    问这里的人也没什么用,自己学习吧,我看了1个多月书了,还没搞好.我们可以讨论下的:[email protected]
    再说下,这里的人也就这么回事,问几个难的就大不上来,也许会,也许不愿意,人一定要靠自己啊!!!!!
      

  9.   

    嘿嘿~我做的 远程访问SQL SERVER 甚至连ado dao或者rdo也没有用
      

  10.   

    主要看如何优化代码了, 远程网络和本地网络没有区别的 记得写代码的时候尽量少返回大量的数据  有时候网络断了有点麻烦 所以我一般用ASP来做中转  利用ASP传递查询参数 把结果下载下来 用读文本来返回结果 我个人感觉这样速度快很多  
      

  11.   

    在VB中用ADO与服务器关联,服务器名可以是所调用服务器的名称,也可以是服务器的IP地址
      

  12.   

    转贴:
    题目:如何提高数据库系统访问效率    目前个人认为要提高数据库访问的效率可以从以下几个方面来考虑:
      1:数据库设计阶段对数据进行优化,包括索引,视图,数据仓库等 来提高数据库数据访问的效率。
      2:从对数据库访问方式来考虑。包括RDO,DAO,ADO,DMO等访问方式的选择 ,通过对他们访问数据库的优缺点进行讨论,通过他们对本机系统的资源开销和数据库执行代价的讨论来选择适合的方法 提高效率。
      3:从等价查询的转换来提高查询效率。(具体可以从不同的语句在数据库翻译执行时选择不同的执行方式 执行代价不一样来考虑)
      4:从程序设计的角度,选择不同的算法来提高效率。
       上面是我目前认为可以提升数据库访问效率的几个方面。在这几个方面大家开发的时候有没有遇到相关的问题和相关的心得。请大家一起来讨论,争取成为精华!!!
    ================================================================
    个人收藏,可能很多人已经见过了.
    --首先,定期用下面的语句,检查/修复数据库/并整理索引碎片(需要比较长的时间,请在系统空闲时进行此工作)USE MASTER
    GOsp_dboption '你的数据库名', 'single user', 'true'
    GoDBCC CHECKDB('你的数据库名', REPAIR_REBUILD) 
    GoUSE 你的数据库名
    goexec sp_msforeachtable 'DBCC CHECKTABLE(''?'',REPAIR_REBUILD)'
    exec sp_msforeachtable 'DBCC DBREINDEX(''?'')'
    gosp_dboption '你的数据库名', 'single user', 'false'
    Go
    ----------
      

  13.   


    2.参考下面的,看数据库和查询语句有没有可优化的地方如何让你的SQL运行得更快 
    ---- 人们在使用SQL时往往会陷入一个误区,即太关注于所得的结果是否正确,而忽略
    了不同的实现方法之间可能存在的性能差异,这种性能差异在大型的或是复杂的数据库
    环境中(如联机事务处理OLTP或决策支持系统DSS)中表现得尤为明显。笔者在工作实践
    中发现,不良的SQL往往来自于不恰当的索引设计、不充份的连接条件和不可优化的whe
    re子句。在对它们进行适当的优化后,其运行速度有了明显地提高!下面我将从这三个
    方面分别进行总结:
    ---- 为了更直观地说明问题,所有实例中的SQL运行时间均经过测试,不超过1秒的均
    表示为(< 1秒)。
    ---- 测试环境--
    ---- 主机:HP LH II
    ---- 主频:330MHZ
    ---- 内存:128兆
    ---- 操作系统:Operserver5.0.4
    ----数据库:Sybase11.0.3
    一、不合理的索引设计
    ----例:表record有620000行,试看在不同的索引下,下面几个 SQL的运行情况:
    ---- 1.在date上建有一非个群集索引
    select count(*) from record where date >
    '19991201' and date < '19991214'and amount >
    2000 (25秒)
    select date,sum(amount) from record group by date
    (55秒)
    select count(*) from record where date >
    '19990901' and place in ('BJ','SH') (27秒)
    ---- 分析:
    ----date上有大量的重复值,在非群集索引下,数据在物理上随机存放在数据页上,在
    范围查找时,必须执行一次表扫描才能找到这一范围内的全部行。
    ---- 2.在date上的一个群集索引
    select count(*) from record where date >
    '19991201' and date < '19991214' and amount >
    2000 (14秒)
    select date,sum(amount) from record group by date
    (28秒)
    select count(*) from record where date >
    '19990901' and place in ('BJ','SH')(14秒)
    ---- 分析:
    ---- 在群集索引下,数据在物理上按顺序在数据页上,重复值也排列在一起,因而在范
    围查找时,可以先找到这个范围的起末点,且只在这个范围内扫描数据页,避免了大范
    围扫描,提高了查询速度。
    ---- 3.在place,date,amount上的组合索引
    select count(*) from record where date >
    '19991201' and date < '19991214' and amount >
    2000 (26秒)
    select date,sum(amount) from record group by date
    (27秒)
    select count(*) from record where date >
    '19990901' and place in ('BJ', 'SH')(< 1秒)
    ---- 分析:
    ---- 这是一个不很合理的组合索引,因为它的前导列是place,第一和第二条SQL没有引
    用place,因此也没有利用上索引;第三个SQL使用了place,且引用的所有列都包含在组
    合索引中,形成了索引覆盖,所以它的速度是非常快的。
    ---- 4.在date,place,amount上的组合索引
    select count(*) from record where date >
    '19991201' and date < '19991214' and amount >
    2000(< 1秒)
    select date,sum(amount) from record group by date
    (11秒)
    select count(*) from record where date >
    '19990901' and place in ('BJ','SH')(< 1秒)
    ---- 分析:
    ---- 这是一个合理的组合索引。它将date作为前导列,使每个SQL都可以利用索引,并
    且在第一和第三个SQL中形成了索引覆盖,因而性能达到了最优。
    ---- 5.总结:
    ---- 缺省情况下建立的索引是非群集索引,但有时它并不是最佳的;合理的索引设计要
    建立在对各种查询的分析和预测上。一般来说:
    ---- ①.有大量重复值、且经常有范围查询
    (between, >,< ,>=,< =)和order by
    、group by发生的列,可考虑建立群集索引;
    ---- ②.经常同时存取多列,且每列都含有重复值可考虑建立组合索引;
    ---- ③.组合索引要尽量使关键查询形成索引覆盖,其前导列一定是使用最频繁的列。二、不充份的连接条件:
    ---- 例:表card有7896行,在card_no上有一个非聚集索引,表account有191122行,在
    account_no上有一个非聚集索引,试看在不同的表连接条件下,两个SQL的执行情况:select sum(a.amount) from account a,
    card b where a.card_no = b.card_no(20秒)
    ---- 将SQL改为:
    select sum(a.amount) from account a,
    card b where a.card_no = b.card_no and a.
    account_no=b.account_no(< 1秒)
    ---- 分析:
    ---- 在第一个连接条件下,最佳查询方案是将account作外层表,card作内层表,利用
    card上的索引,其I/O次数可由以下公式估算为:
    ---- 外层表account上的22541页+(外层表account的191122行*内层表card上对应外层
    表第一行所要查找的3页)=595907次I/O
    ---- 在第二个连接条件下,最佳查询方案是将card作外层表,account作内层表,利用
    account上的索引,其I/O次数可由以下公式估算为:
    ---- 外层表card上的1944页+(外层表card的7896行*内层表account上对应外层表每一
    行所要查找的4页)= 33528次I/O
    ---- 可见,只有充份的连接条件,真正的最佳方案才会被执行。
    ---- 总结:
    ---- 1.多表操作在被实际执行前,查询优化器会根据连接条件,列出几组可能的连接方
    案并从中找出系统开销最小的最佳方案。连接条件要充份考虑带有索引的表、行数多的
    表;内外表的选择可由公式:外层表中的匹配行数*内层表中每一次查找的次数确定,乘
    积最小为最佳方案。
    ---- 2.查看执行方案的方法-- 用set showplanon,打开showplan选项,就可以看到连
    接顺序、使用何种索引的信息;想看更详细的信息,需用sa角色执行dbcc(3604,310,30
    2)。
    三、不可优化的where子句
    ---- 1.例:下列SQL条件语句中的列都建有恰当的索引,但执行速度却非常慢:
    select * from record where
    substring(card_no,1,4)='5378'(13秒)
    select * from record where
    amount/30< 1000(11秒)
    select * from record where
    convert(char(10),date,112)='19991201'(10秒)
    ---- 分析:
    ---- where子句中对列的任何操作结果都是在SQL运行时逐列计算得到的,因此它不得不
    进行表搜索,而没有使用该列上面的索引;如果这些结果在查询编译时就能得到,那么
    就可以被SQL优化器优化,使用索引,避免表搜索,因此将SQL重写成下面这样:
    select * from record where card_no like
    '5378%'(< 1秒)
    select * from record where amount
    < 1000*30(< 1秒)
    select * from record where date= '1999/12/01'
    (< 1秒)
    ---- 你会发现SQL明显快起来!
    ---- 2.例:表stuff有200000行,id_no上有非群集索引,请看下面这个SQL:
    select count(*) from stuff where id_no in('0','1')
    (23秒)
    ---- 分析:
    ---- where条件中的'in'在逻辑上相当于'or',所以语法分析器会将in ('0','1')转化
    为id_no ='0' or id_no='1'来执行。我们期望它会根据每个or子句分别查找,再将结果
    相加,这样可以利用id_no上的索引;但实际上(根据showplan),它却采用了"OR策略"
    ,即先取出满足每个or子句的行,存入临时数据库的工作表中,再建立唯一索引以去掉
    重复行,最后从这个临时表中计算结果。因此,实际过程没有利用id_no上索引,并且完
    成时间还要受tempdb数据库性能的影响。
    ---- 实践证明,表的行数越多,工作表的性能就越差,当stuff有620000行时,执行时
    间竟达到220秒!还不如将or子句分开:
    select count(*) from stuff where id_no='0'
    select count(*) from stuff where id_no='1'
    ---- 得到两个结果,再作一次加法合算。因为每句都使用了索引,执行时间只有3秒,
    在620000行下,时间也只有4秒。或者,用更好的方法,写一个简单的存储过程:
    create proc count_stuff as
    declare @a int
    declare @b int
    declare @c int
    declare @d char(10)
    begin
    select @a=count(*) from stuff where id_no='0'
    select @b=count(*) from stuff where id_no='1'
    end
    select @c=@a+@b
    select @d=convert(char(10),@c)
    print @d
    ---- 直接算出结果,执行时间同上面一样快!
    ---- 总结:
    ---- 可见,所谓优化即where子句利用了索引,不可优化即发生了表扫描或额外开销。---- 1.任何对列的操作都将导致表扫描,它包括数据库函数、计算表达式等等,查询时
    要尽可能将操作移至等号右边。
    ---- 2.in、or子句常会使用工作表,使索引失效;如果不产生大量重复值,可以考虑把
    子句拆开;拆开的子句中应该包含索引。
    ---- 3.要善于使用存储过程,它使SQL变得更加灵活和高效。
    ---- 从以上这些例子可以看出,SQL优化的实质就是在结果正确的前提下,用优化器可
    以识别的语句,充份利用索引,减少表扫描的I/O次数,尽量避免表搜索的发生。其实S
    QL的性能优化是一个复杂的过程,上述这些只是在应用层次的一种体现,深入研究还会
    涉及数据库层的资源配置、网络层的流量控制以及操作系统层的总体设计。
    --------------------------------
      

  14.   

    HOHO,才几万条记录,没什么关系的。
    我现在手上的表有1百多万条记录,每天都会被市里各级供电局调用查询,这么大的数据量和访问量,我也没做多少优化,SQL2000的性能还是不错的。
      

  15.   

    一般是做成三层结构的要好很多, 中间层也可以用VB编写class来实现。
      

  16.   

    sm1le,你是使用VB什么的?如果用ASP速度是不是就会受到很大影响呢?
      

  17.   

    才几万条记录嘛,根本不需要操太多心。
    我工作的公司总部在香港,但在缅甸、柬埔塞、南非、大陆等有好多厂,每天的数据至少有4万条,用了三层架构,不论是B/S结构还是C/S结构,速度绝对跟得上,当然网络也好足够好!