本帖最后由 mumubangditu 于 2014-01-14 19:47:46 编辑

解决方案 »

  1.   

    高并发读写,可以考虑使用 myisam 存储引擎。
      

  2.   


    纯myisam?insert update之前lock table,完成后解锁?2GB内存,当有100W(10GB)条记录时,可行吗?如果可以,my.cnf各值如何设置合理?
      

  3.   

    大版主应该是口误 应该是innodb
      

  4.   

    mysql如果是读的操作多,并且数据的安全性要求不高,可以考虑用myisam。不过还是建议innodb
      

  5.   

    所以……mysql是不是不适合,nosql呢?有没有好的建议?
      

  6.   

    所以……mysql是不是不适合,nosql呢?有没有好的建议?
    mysql数据量大,一般做法是分表,分库。
      

  7.   


    分表的话, 
    id url字段 设为myisam(id自增),
    其他字段设置为innodb(id关联)
    这样分是不是合理?分库的话,多少MB或者多少行分一个库最佳?谢谢。
      

  8.   

    汗~~
    冰糖和狼头就这回复?
    看样子MYSQL太弱,难以作为了。
      

  9.   

    可以使用主从mysql,淘宝使用的也是mysql,没有问题
      

  10.   

    主从mysql?这方面文章也看过一些。
    不过还是不太明白,怎么关联的呢?
      

  11.   

    存储引擎一定选择INNODB。数据量比较大,可以按照不同业务做切分处理。
    放在不同库中中,分库、分表处理,有水平切分和垂直切分,应用不同
    的应用场景。
      

  12.   

    一个数据库读数据库,另外一个数据库修改,删除,新增
    数据同步,缓解并发。能不能举个简单的例子?数据同步是什么意思,定时执行copy命令?(copy时数据库加锁?)
      

  13.   

    URL不太适合创建索引
    可以加一列hash值做索引上亿数据最好做分表或者分库,用hash做分表分库也很简单
      

  14.   

    都条条框框的说的那么大,对实际操作没有任何帮助。
    现在干脆用INSERT IGNORE  插入时间 一个index
    url地址 一个index
    页面标题,页面简介,作者名字 一个index