2013年12月21日星期六

GC.Collect如何影响垃圾回收

本邮件内容由第三方提供,如果您不想继续收到该邮件,可 点此退订
GC.Collect如何影响垃圾回收  阅读原文»

GC.Collect如何影响垃圾回收

根据垃圾回收的算法,对象在内存中是按代的方式存放的,通常情况下,当第0代沾满分配的空间的时候(比如是256k),GC就会启动去回收第0代对象,幸存的第0代对象会被放入第1代中去,第1代的对象要等到放满了才会收集,因此,越是年轻的代越是被频繁的收集,由于通常情况下GC只收集第0代对象,既保证了可回收较多的内存,又忽略了老一代的对象,从而加快了垃圾回收的速度,提升了性能。

因此当调用gc.collect的时候,相当于强制的对所有代,不管年轻还是老的都执行一次回收。由于垃圾回收器在回收的资源的时候,正在执行托管代码的线程都会被挂起,具体的细节相当复杂,因为有的线程运行在不安全的点,CLR不能执行垃圾回收,因此CLR会采用线程劫持技术,即通过修改线程栈的方法,来做垃圾回收。这种复杂性使得性能降低。除非确定大量的旧对象死亡,才考虑调用这个方法。

所以,在一般情况下,尽量不要干预垃圾回收器工作,即尽量避免主动调用GC.Collect。

由于垃圾回收是异步的,CLR有一个专用的线程负责垃圾回收,因此,即使调用GC.Collect,也并不是实时的调用了Finalize,因此要保证确实调用了析构方法,可以使用语句GC.WaitForPendingFinalizers()。

下面是一段代码,通过注释掉

GC.Collect();

GC.WaitForPendingFinalizers();

语句,看出端倪。

  using System;  using System.Collections.Generic;  using System.Linq;  using System.Text;  using System.Linq.Expressions;  using System.Reflection;  namespace ConsoleApplication1  {      class Program      {          static void Main(string[] args)          {              AA aa1 = new AA("1");              AA aa2 = new AA("2");              AA aa3 = new AA("3");              aa1 = null;              aa2 = null;              //GC.Collect();              //GC.WaitForPendingFinalizers();              var tmp = aa3;          }      }      public class AA      {          public string id = "";          public AA(string s)          {              id = s;              Console.WriteLine("对象AA_" + s + "被创建了");          }          ~AA()          {              Console.WriteLine(id + " 析构函数被执行了");          }      }  }  

当语句被注释掉的时候,虽然aa1和aa2都设成了null,但是垃圾回收并不是马上就把它们回收掉。对象可能都被放在第0代上,等进程结束的时候,由垃圾回收器一起回收。所以输出如下,顺序是321

e1373249592f420e854f3b035ddf3fd7

但是当取消注释后,由于强制垃圾回收时,aa1对象和aa2对象都是null,因此就把它们回收掉了。顺序就是213了。

b0b99d8b1eec4114b26e7fa195225f4b

注意,如果aa1和aa2不设成null,那么强制回收时,并不认为这2个对象可以回收。因此还是会等到进程结束的时候才会回收。

本文出自 "一只博客" 博客,请务必保留此出处http://cnn237111.blog.51cto.com/2359144/1343004

分享至 一键收藏,随时查看,分享好友!
昵称:
登录快速注册
内容:

Redis 在新浪微博中的应用  阅读原文»

Redis 在新浪微博中的应用

Redis 在新浪微博中的应用

1. 支持5种数据结构

支持strings, hashes, lists, sets, sorted sets
string是很好的存储方式,用来做计数存储。sets用于建立索引库非常棒;

2. K-V 存储 vs K-V 缓存

新浪微博目前使用的98%都是持久化的应用,2%的是缓存,用到了600+服务器
Redis中持久化的应用和非持久化的方式不会差别很大:
非持久化的为8-9万tps,那么持久化在7-8万tps左右;
当使用持久化时,需要考虑到持久化和写性能的配比,也就是要考虑redis使用的内存大小和硬盘写的速率的比例计算;

Redis目前有3万多行代码, 代码写的精简,有很多巧妙的实现,作者有技术洁癖
Redis的社区活跃度很高,这是衡量开源软件质量的重要指标,开源软件的初期一般都没有商业技术服务支持,如果没有活跃社区做支撑,一旦发生问题都无处求救;

Redis基本原理

redis持久化(aof) append online file:
写log(aof), 到一定程度再和内存合并. 追加再追加, 顺序写磁盘, 对性能影响非常小

1. 单实例单进程

Redis使用的是单进程,所以在配置时,一个实例只会用到一个CPU;
在配置时,如果需要让CPU使用率最大化,可以配置Redis实例数对应CPU数, Redis实例数对应端口数(8核Cpu, 8个实例, 8个端口), 以提高并发:
单机测试时, 单条数据在200字节, 测试的结果为8~9万tps;

2. Replication

过程: 数据写到master-->master存储到slave的rdb中-->slave加载rdb到内存。
存储点(save point): 当网络中断了, 连上之后, 继续传.
Master-slave下第一次同步是全传,后面是增量同步;、

长期运行后多个结点之间存在不一致的可能性;
开发两个工具程序:
1.对于数据量大的数据,会周期性的全量检查;
2.实时的检查增量数据,是否具有一致性;

对于主库未及时同步从库导致的不一致,称之为延时问题;
对于一致性要求不是那么严格的场景,我们只需要要保证最终一致性即可;
对于延时问题,需要根据业务场景特点分析,从应用层面增加策略来解决这个问题;
例如:
1.新注册的用户,必须先查询主库;
2.注册成功之后,需要等待3s之后跳转,后台此时就是在做数据同步。

新浪Redis使用历程

2009年, 使用memcache(用于非持久化内容), memcacheDB(用于持久化+计数),
memcacheDB是新浪在memcache的基础上,使用BerkeleyDB作为数据持久化的存储实现;

  • 数据结构(Data Structure)需求越来越多, 但memcache中没有, 影响开发效率

  • 性能需求, 随着读操作的量的上升需要解决,经历的过程有:
    数据库读写分离(M/S)-->数据库使用多个Slave-->增加Cache (memcache)-->转到Redis

  • 解决写的问题:
    水平拆分,对表的拆分,将有的用户放在这个表,有的用户放在另外一个表;

  • 可靠性需求
    Cache的"雪崩"问题让人纠结
    Cache面临着快速恢复的挑战

  • 开发成本需求
    Cache和DB的一致性维护成本越来越高(先清理DB, 再清理缓存, 不行啊, 太慢了!)
    开发需要跟上不断涌入的产品需求
    硬件成本最贵的就是数据库层面的机器,基本上比前端的机器要贵几倍,主要是IO密集型,很耗硬件;

  • 维护性复杂
    一致性维护成本越来越高;
    BerkeleyDB使用B树,会一直写新的,内部不会有文件重新组织;这样会导致文件越来越大;大的时候需要进行文件归档,归档的操作要定期做;
    这样,就需要有一定的down time;

基于以上考虑, 选择了Redis

2. 寻找开源软件的方式及评判标准

  • 对于开源软件,首先看其能做什么,但更多的需要关注它不能做什么,它会有什么问题?

  • 上升到一定规模后,可能会出现什么问题,是否能接受?

  • google code上, 国外论坛找材料(国内比国外技术水平滞后5年)

  • 观察作者个人的代码水平

Redis应用场景

1. 业务使用方式

  • hash sets: 关注列表, 粉丝列表, 双向关注列表(key-value(field), 排序)

  • string(counter): 微博数, 粉丝数, ...(避免了select count(*) from ...)

  • sort sets(自动排序): TopN, 热门微博等, 自动排序

  • lists(queue): push/sub提醒,...

上述四种, 从精细化控制方面,hash sets和string(counter)推荐使用, sort sets和lists(queue)不推荐使用
还可通过二次开发,进行精简。比如: 存储字符改为存储整形, 16亿数据, 只需要16G内存
存储类型保存在3种以内,建议不要超过3种;

将memcache +myaql 替换为Redis:
Redis作为存储并提供查询,后台不再使用mysql,解决数据多份之间的一致性问题;

2. 对大数据表的存储

(eg:140字微博的存储)
一个库就存唯一性id和140个字;
另一个库存id和用户名,发布日期、点击数等信息,用来计算、排序等,等计算出最后需要展示的数据时再到第一个库中提取微博内容;

改进的3个步骤:
1)发现现有系统存在问题;
2)发现了新东西, 怎么看怎么好, 全面转向新东西;
3)理性回归, 判断哪些适合新东西, 哪些不适合, 不合适的回迁到老系统

  • 很多应用, 可以承受数据库连接失败, 但不能承受处理慢

  • 一份数据, 多份索引(针对不同的查询场景)

  • 解决IO瓶颈的唯一途径: 用内存

  • 在数据量变化不大的情况下,优先选用Redis

遇到的问题及解决办法

(注意: 都是量特别大时候会出现的, 量小了怎么都好说)

1.Problem: Replication中断后, 重发-->网络突发流量

Solution: 重写Replication代码, rdb+aof(滚动)

2.Problem: 容量问题

Solution: 容量规划和M/S的sharding功能(share nothing, 抽象出来的数据对象之间的关联数据很小)
增加一些配置, 分流, 比如: 1,2,3,4, 机器1处理%2=1的, 机器2处理%2=0的.
低于内存的1/2使用量, 否则就扩容(建议Redis实例使用的数据,最大不要超过内存的80%)
我们线上96G/128G内存服务器不建议单实例容量大于20/30G。
微博应用中单表数据最高的有2T的数据,不过应用起来已经有些力不从心;
每个的端口不要超过20G;测试磁盘做save所需要的时间,需要多长时间能够全部写入;内存越大,写的时间也就越长;
单实例内存容量较大后,直接带来的问题就是故障恢复或?p>阅读更多内容

没有评论:

发表评论