2014年9月11日星期四

cocos2d-x CCArray使用中避免出现野指针问题

本邮件内容由第三方提供,如果您不想继续收到该邮件,可 点此退订
cocos2d-x CCArray使用中避免出现野指针问题  阅读原文»

cocos2d-x CCArray使用中避免出现野指针问题

问题及现象

  此前,调试cocos2d-x + CocoStudio游戏程序过程中遇到一个运行时错误。通过调用堆栈来看,错误指针停在~CCNodeRGBA()

分析1

  CCNodeRGBA是一个继承自CCNode的子类,其主要是增加了与结点透明度相关的属性控制功能。

classCC_DLLCCNodeRGBA:publicCCNode,publicCCRGBAProtocol

    CCNodeRGBA是CCSprite和Widget(即UIWidget)的直接父类。因此,出现错误对象应当与CCSprite和Widget对象及可能的子类对象有关。

分析2

具体的错误堆栈内容我就不截图了。从栈中层次分析,最可能是析构结点过程(一级级的析构,这是C++的析构规则,由子到父到祖父再到...)的最后产生了上述错误,大致可以估计出现了内存崩溃

分析3

  既然问题初步定位在内存崩溃,那么很可能与指针使用相关。回想前段时间(及很早以前--其实这部分代码很早前就有了)感觉系统运行正常--当然是还在没有增加新近添加的功能之前。

  那么,怎么尽快分析出BUG?代码近5000行!好在绝大部分都已经运行起来,于是我从测试实例入手(不敢直接使用缩小范围法:即由原来的200个模块缩小(主要是通过注释屏蔽的方法)到想测试的100个模块)。GOOD!在最简单的操作测试中,新增加功能正常!这给了我极大鼓励!

  于是,我继续使用测试实例法,并且把新增加功能一个个测试(反复进行)。最终,范围逐渐定位在一个大致的实现算法上。

问题解决

  问题出在:C++野指针问题!相关代码如下:

//此前有声明:Card*Cells[4]={NULL};
Cells[col]=(Card*)TableauPiles[whichColumnForCC]->lastObject();
Card*t2=Cells[col];
Cells[col]->setPosition(m_pCurNode->getChildByTag(10006+col)->getPosition());
m_pCurNode->reorderChild(Cells[col],++zIndexForAll);
Cells[col]->setPosition(m_pCurNode->getChildByTag(10006+col)->getPosition());
m_pCurNode->reorderChild(Cells[col],++zIndexForAll);
TableauPiles[whichColumnForCC]->removeLastObject();

  问题出在第一句与最后一句。第一句的意义是指:把Cells[col]指针指向一个已经内存分配的Card对象所在位置。而最后一句,把这个对象对应内存释放掉了!于是Cells[col]指向的对象成了僵尸

  僵尸很可怕!我们大家都看过类似体裁的故事吧!我的游戏中,Cells[col]指针的精灵仍然可以在屏幕上移动,好像是正常的精灵一样!!!这也正是我直接使用以前的代码而现在迟迟没有发现的原因之一(当然,根本原因还与本人C++功能有密切关系)。

进一步分析

  大家都知道CCArray这个数据类型很好使用,因为它继承自STL中现有结构,而且效率明确提高,特别是其提供了大量的简化数组操作的方法。但是,也有不足:在使用CCArray时,有关retain问题我就不再重复了--网络上有的是。在普通的cocos2d-x编码中,使用了retain那么在最后就要调用相应的release;但是,当你配合使用CocoStudio UI编辑器或者场景编辑器进行开发时就不需要(也不能够)调用release了。有关细节,Hanrea告诉我UI解析器在释放场景内容时自动处理了。当然,我还没有分析他们的源代码,所以只是这么结论了。当然,在我前段时间花费不少时间克服的问题也证明了这一点。

  接下来,removeLastObject这个方法有一个bool类型参数,默认为true,即释放掉相应内存。源码如下:

voidCCArray::removeLastObject(boolbReleaseObj)
CCAssert(data->num,"noobjectsadded");
ccArrayRemoveObjectAtIndex(data,data->num-1,bReleaseObj);

  再跟踪下去:

voidccArrayRemoveObjectAtIndex(ccArray*arr,unsignedintindex,boolbReleaseObj/*=true*/)
CCAssert(arr&&arr->num>0&&index<arr->num,"Invalidindex.Outofbounds");
if(bReleaseObj)
CC_SAFE_RELEASE(arr->arr);
unsignedintremaining=arr->num-index;
memmove((void*)&arr->arr,(void*)&arr->arr,remaining*sizeof(CCObject*));

  注意上面第一个if语句,当参数为true时,把相应内存真正释放掉了。请参考我们上面的游戏代码。

  最后,纠正一下错误,很简单,把上面最后一句修改如下即可:

TableauPiles[whichColumnForCC]->removeLastObject(false);

显然,传递参数false就是只在本数组中进行了下标调整(arr->num也比原来减小了1),并没有进行最后一个结点对应的内存释放。反而,最后一个数组结点对应内存被Cells[col]这个指针接收下了。于是,避免了一个野指针(僵尸)事件,一切自然OK!

本文出自 "青峰" 博客,请务必保留此出处http://zhuxianzhong.blog.51cto.com/157061/1550989

分享至 如何用SHELL写好网络爬虫  阅读原文»

如何用SHELL写好网络爬虫

上周,老大压下来任务,让写一个网络爬虫,负责爬某一个行业网站的数据信息。由于本人只会 shell 编程语言,其它编程语言从未涉猎,因此就只能硬着头皮用 shell 去写了。

转眼之前已经过去一周了,一切从无到有,经历的坎坷无数,这里我就不一一吐槽。

这里呢,我就简单和大家分享下,我个人对,如何用 shell 去写好网络爬虫的几点拙见,希望有想法的朋友联系我一起交流交流想法,没有想法的就看看有精华就吸收走,有糟粕的果断弃之。

1、你肯定要简单了解下网络爬虫是什么!这个定义在谷歌一搜一大堆,这里我就不拷贝了。

2、对HTTP协议要有简单了解,比如HTTP协议1.0和1.1的区别、HTTP协议的请求过程、请求报文都包含哪些内容以及一个网页链接是由哪些部分组成的。针对请求报文的内容,是我们网络爬虫抓取的重点。如果你所要爬的网站需要登录用户名和密码,那么cookie就非常重要;如果你所要爬的网站做了防盗链,那么你就需要声明好你是从哪个连接来的,此时referer就非常的重要;如果你所要爬的网站需要传递POST信息,那么你就要对Form Data和Response比较关注才行,等等,这里仅列举几个重要的点。

3、上面提到了HTTP协议的相关,那么如何把这些信息告知给我们所要爬的目标站点呢?通常我们都是使用游览器做操作的,可是我们现在定义为网络爬虫了,那肯定要脱离人工喽。因此这里我们就要使用到2个命令工具,一个是curl,一个是wget。我个人习惯,对页面内容请求我就使用curl了,对于某些资源下载,比如图片,音频等,我就使用wget去做操作。针对这两个命令,我们所需要重视的是,如何传递cookie,如何传递referer,如何传递POST信息以及如何设置代理信息等这些内容。这里我以curl命令为例,如果我需要传递cookie,那么我就需要用到-b(--cookie)去传递cookie,使用-s(--slient)减少curl页面过程中是不必要的输出信息,使用-e(--referer) 指定从哪个url地址来等等等等,这里不再一一嗦。针对curl和wget的命令详解,谷歌一搜一大把,这里同样不再拷贝了。

有以上的知识,就具备了通过命令请求所爬的站点页面信息了,后面所涉及到的就是对所爬信息的筛选、过滤了,以及如何提高爬的速度。

1、针对数据的筛选、过滤,shell真是太在行了。这一点,我相信大家肯定都清楚。shell编程中常用的文本处理工具,比如grep、sed、awk这三个主要的,以及周边的cut、wc、uniq、sort等等。我们通过将这些工具与正则表达式做结合,可以完美实现对于感兴趣信息选取。针对以上几个工具的用法,不在本篇做叙述。

2、针对网络爬虫这个整体脚本的构建,这个就需要你的shell编程经验越熟练越好了,因为这个主要对shell脚本整体框架的组建以及各个逻辑之间的组合关联的把握和感知。如果这个地方处理不好,脚本的效率不仅不会高,出错的排障也是不容易的。

3、针对基于shell的网络爬虫的速度优化,这个还是蛮受上一个点的情况影响了。如果要优化速度,一方面要减少不必要的命令使用,这样能减少磁盘的IO消耗和CPU的效能计算,另一方面我们需要使用 shell 的多线程功能,来提高脚本整体的并发性。

OK!以上就是我对基于shell的网络爬虫个人拙见。下面再补充几点优化思路!

1、爬前要分析所爬网站的地域,比如国内还是国外。如果是国外的,就尽量选择国外的服务器(你懂得)不然速度可能让你汗颜!另外,本地绑定所爬网站的固定IP或者选择一个好的DNS服务器也是不错的选择。

2、在使用shell的多线程功能时,切记要控制住进程数。这个数值要综合考量,一方面要以自身服务器性能为参考依据,另一方面要以所爬站点的承载能力为参考依据,两者缺一不可。一个和谐的数值是需要多次测试求出来的,切记!

3、为了提高爬虫后期的扩展性,因此框架和变量,这两者一定要灵活,不然脚本就是个死脚本,不方便后期的扩展。

虽然shell确实是一个面向过程的编程语言,但是我还是期望能够站在更高的角度去灵活运用它。最后,我个人绝对针对网络爬虫这种东西,使用高级语言比如java、python去写效果应该更好。目前个人,不会高级语言,所以只能用 shell 语言去写,泪奔啊!

在下一篇博文,我会分享我的爬虫脚本给大家,希望能对大家有所帮助!

本文出自 "Not Only Linux" 博客,请务必保留此出处http://nolinux.blog.51cto.com/4824967/1550976

分享至 一键收藏,随时查看,分享好友!
昵称:
登录快速注册
内容:

阅读更多内容

没有评论:

发表评论