前言
写东西前总是喜欢吐槽一些东西,还是多�嗦几句吧,早上看了一篇博文《谈谈外企涨工资那些事》,里面楼主讲到外企公司包含的五类人,其实不只是外企如此,私企和合资的都是如此,一些公司反正什么人都有,就怕你的上司是第一种,你的同事是第二种。这种搭配最讨人厌,反正技术和工作效率不怎么样,“做人”还蛮会做的。其实不管公司怎样,同事怎样,工作环境怎样。就像里面楼主说的,都要坚持自己选择的路,并坚持走下去。。。
这几天都在博园逛一些技术大牛的博客,也买了本相关的数,在博园主要看些设计模式之类的,看了很是心血澎湃,真的希望自己有一天也可以写一些之类的文章。昨天下了一位园友写的一个权限管理系统,里面用到了mvc、ef、easyui和一些设计模式,自己接下来要好好研究下。其实一直有个想法是,希望可以把.net底层搞透,并整理一套属于自己的框架,慢慢优化下去,就像胡哥一样。完成这些,虽死无憾,哈哈哈。。。
说的有点多了,会到正题,我一开始写这类算法编程题的时候,一是想可以帮到开始学习算法编程的同学们,二是锻炼自己的脑细胞,希望死的不要太多。还有就是写这些编程题和C++其实没什么关系,只是用简单的语法实现功能而已,重要的是逻辑思路,大家也可以看成是奥数题。
网上看到一套趣味编程题,希望接下来可以一一和大家分享。
程序要求
程序描述:
从键盘输入一个整数(1~20)
则以该数字为矩阵的大小,把1,2,3…n*n 的数字按照顺时针螺旋的形式填入其中。例如:
输入数字2,则程序输出:
1 2
4 3
输入数字3,则程序输出:
1 2 3
8 9 4
7 6 5
输入数字4, 则程序输出:
1 2 3 4
12 13 14 5
11 16 15 6
10 9 8 7
程序实现
这个编程题大家可能都做过,算是比较经典的算法编程题了,当然也有很多的实现方法,这里我讲一种。
我们先分析下,这个题目主要是输出数字螺旋,我们可以看成是四个方向:
1,左-->右
2,上-->下
3,右-->左
4,下-->上
而且这四个方向的数字是依次递增的,那我们可以这样思考,整个输出是一个二维数组,行和列数是一样的,比如输入4,那1-12就是第一圈,12-16就是第二圈,每一圈又分四个方向。
我们可以先这样定义:
2 int i,j;
3 int rows,quan;
num数组表示的是输出的数组,rows就是行列数,也就是我们输入的值,quan表示的是螺旋的圈数,i表示的是螺旋上的数字,j等下我们程序中讲,我们代码可以这样写:
2 quan=0;
3 for(i=1;i<=rows*rows;quan++)
4 {
5 if(i==rows*rows)
6 num[(rows-1)/2][(rows-1)/2]=i++;
7 else
8 {
9 for(j=quan;j<rows-1-quan;j++)
10 num[quan][j]=i++;
11 for(j=quan;j<rows-1-quan;j++)
12 num[j][rows-quan-1]=i++;
13 for(j=rows-1-quan;j>quan;j--)
14 num[rows-quan-1][j]=i++;
15 for(j=rows-1-quan;j>quan;j--)
16 num[j][quan]=i++;
17 }
18 }
最外层的for是循环圈数的意思,里面if是判断最后一圈是不是单独的数字,就像行数如果是3,那最后一圈就只要一个数字9,下面四个for就是代表的上面说的四个方向。大家看下代码就懂得,这里我就不多说了。
大家可能有更好的实现方式,希望可以多多交流,
完整程序代码:
2 #include "string.h"
3 #include "stdlib.h"
4
5 void main()
6 {
7 int num[80][80];
8 int i,j;
9 int rows,quan;
10
11 scanf("%d",&rows);
12 quan
mapping
==
Mapping是指定义如何将document映射到搜索引擎的过程,比如一个字段是否可以查询以及如何分词等,一个索引可以存储含有不同"mapping types"的documents,ES允许每个mapping type关联多个mapping定义。
显式声明的mapping是定义在index/type级别, 默认不需要显式的定义mapping, 当新的type或者field引入时,ES会自动创建并且注册有合理的默认值的mapping(毫无性能压力), 只有要覆盖默认值时才必须要提供mapping定义。
mapping types
Mapping types是将索引里的documents按逻辑分组的方式, 类似数据中的表, 虽然不同的types之间有些区别, 但他们并不是完全分开的(说到底还是存在相同的Lucene索引里)。
强烈建议跨types的同名field有相同的类型定义以及相同的mapping特征(比如analysis的设置), 这在通过type前缀(`my_type.my_field`)来选择字段时非常有效, 但这也不一定, 有些地方就不起作用(比如字段的聚合faceting)。
实际上在实践中这个限制从来不是问题, field名通常表明了该field的类型(例如"first_name"总是一个字符串)。 还要注意, 这不适用于跨索引的情况。
mapping api
要创建mapping, 需要用到Put Mapping接口, 或者可以在调用create index接口时附带mapping的定义。
global settings
全局设置`index.mapping.ignore_malformed`可以在索引级别上设置是否忽略异常内容(异常内容的一个例子是尝试将字符串类型的值作为数字类型索引), 这个设置是跨mapping types的全局设置。
fields
===
每一个ampping都有一些关联的字段来控制如何索引的document的元数据(例如_all)。
_uid
===
每个索引的document会关联一个id和一个type, 内部的`_uid`字段将type和id组合起来作为document的唯一标示(这意味着不同的type可以有相同的id, 组合起来仍然是唯一的)。
在执行基于type的过滤时, 如果`_type`字段没有被索引,会自动使用`_uid`字段, 并且不需要`_id`字段被索引。
```
附_uid的java源代码
public static final byte DELIMITER_BYTE = 0x23;
public static void createUidAsBytes(BytesRef type, BytesRef id, BytesRef spare) {
spare.copyBytes(type);
spare.append(DELIMITER_BYTES);
spare.append(id);
}
```
_id
===
每个索引的document会关联一个id和一个type, `_id`字段就是用来索引并且存储(可能)id的,默认是不索引(not indexed)并且不存储的(not stored)。
注意, 即使`_id`是不索引的, 相关的接口仍然起作用(他们会用`_uid`字段), 比如用`term`, `terms`或者`prefix`来根据ids过滤(包括用`ids`来查询/过滤)。
`_id`字段也可以启用索引或者存储, 配置如下:
```
{
"tweet" : {
"_id" : {"index": "not_analyzed", "store" : "yes"}
}
}
```
为了维护向后兼容性, 当升级到0.16时可以在节点级别设置`index.mapping._id.indexed`为true来确保id能被索引, 尽管不建议索引id。
可以设置`_id`的`path`属性来从源文档中提取id, 例如下面的mapping:
```
{
"tweet" : {
"_id" : {
"path" : "post_id"
}
}
}
```
如果提交下面的数据
```
{
"message" : "You know, for Search",
"post_id" : "1"
}
```
`1`会提取出来作为id。
因为要提取id来决定在哪一个shard执行索引,需要在索引时做额外的解析。
_type
===
每个索引的document会关联一个id和一个type, type在索引时会自动赋给`_type`字段, 默认`_type`字段是需要索引的(但不analyzed)并且不存储的, 这就意味着`_type`字段是可查询的。
`_type`字段也可以设置为stored, 例如:
```
{
"tweet" : {
"_type" : {"store" : "yes"}
}
}
```
`_type`字段也可以设置为不索引, 并且此时所有用到`_type`字段的接口仍然能用。
```
{
"tweet" : {
"_type" : {"index" : "no"}
}
}
```
_source
===
`_source`是一个自动生成的字段, 用来存储实际提交的JSON数据, 他是不索引的(不可搜索), 只是用来存储。 在执行"fetch"类的请求时, 比如get或者search, `_source`字段默认也会返回。
尽管`_source`非常有用, 但它确实会占用索引的存储空间, 所以也可以禁用。 比如:
```
{
"tweet" : {
"_source" : {"enabled" : false}
}
}
```
compression
从0.90开始, 所有存储的字段(包括`_source`)总是被压缩的。
0.90之前:
如果要将source字段存储在索引中的话,启用压缩(LZF)会显著减少索引的大小, 还可能提升性能(解压缩比从磁盘上加载一个比较大的source的性能要好)。 代码需要特别注意,只有需要的时候才执行解压缩, 例如直接将数据解压缩到REST的结果流。
要启用压缩的话, 需要将`compress`选项设置为true, 默认设置是false。 注意可以在已经存在的索引上修改,ES支持压缩和未压缩的数据混合存放。
另外,`compress_threshold`可以控制压缩source的时机,可以设置为表示字节大小的值(比如100b, 10kb)。 注意`compress`应该设置为true。
includes / excludes
可以用path属性来包含/排除source中要存储的字段,支持*通配符,例如:
```
{
"my_type" : {
"_source" : {
"includes" : ["path1.*", "path2.*"],
"excludes" : ["pat3.*"]
}
}
}
```
_all
===
`_all`字段的设计目的是用来包罗文档的一个或多个字段, 这对一些特定的查询非常有用, 比如我们要查询文档的内容, 但是不确定要具体查询哪一个字段, 这会占用额外的cpu和索引容量。
`_all`字段可以完全禁止掉, field mapping和object mapping可以声明这个字段是否放到`_all`中。 默认所有的字段都包含在`_all`中。
禁用`_all`字段时, 推荐为`index.query.default_field`设置一个值(例如, 你的数据有一个"message"字段来存储主要的内容, 就设置为`message`)。
`_all`字段一个很有用的特征是可以把字段的boost等级考虑进去, 假设title字段的boost等级比content字段高, `_all`中的title值也比`_all`中的content值等级高。
以下是一个配置的例子:
```
{
"person" : {
"_all" : {"enabled" : true},
"properties" : {
"name" : {
"type" : "object",
"dynamic" : false,
"properties" : {
"first" : {"type" : "string", "store" : "yes", "include_in_all" : false},
"last" : {"type" : "string", "index" : "not_analyzed"}
}
},
"address" : {
"type" : "object",
"include_in_all" : false,
"properties" : {
"first" : {
"properties" : {
"location" : {"type" : "string", "store" : "yes", "index_name" : "firstLocation"}
}
},
"last" : {
"properties" : {
"location" : {"type" : "string"}
}
}
}
},
"simple1" : {"type" : "long", "include_in_all" : true},
"simple2" : {"type" : "long", "include_in_all" : false}
}
}
}
```
在这个例子里, `_all`字段设置了`store`, `term_vector`和`analyzer`(指定`index_analyzer`和`search_analyzer`)。
highlighting
任何可以highlighting的字段必须既是stored的,又是`_source`的一部分,默认`_all`字段不符合这个条件, 所以它的highlighting不会返回任何数据。
尽管可以设置`_all`为stored, 但`_all`从根本上说是所有字段的集合, 也就是说会存储多余的数据,它做highlighting可能产生怪怪的结果。
_analyzer
===
`_analyzer` mapping可以将document某个字段的值作为索引时所用analyzer的名字,如果一个字段没有显式指定`analyzer`或者`index_analyzer`, 索引时就会用这个analyzer。
下面是配置的例子:
```
{
"type1" : {
"_analyzer" : {
"path" : "my_field"
}
}
}
```
上面的配置用`my_field`字段的值作为analyzer, 比如下面的文档:
```
{
"my_field" : "whitespace"
}
```
会让所有没有指定analyzer的字段用`whitespace`做索引的analyzer。
path的默认值是`_analyzer`, 所以可以给`_analyzer`字段赋值来指定一个analyzer, 如果需要自定义为别的json字段, 需要通过path属性来明确指定。
默认`_analyzer`字段是可索引的, 可以在mapping中将`index`设置为`no`来禁用。
_boost
===
Boosting是增强文档或者字段关联性的过程,字段级别的mapping可以将boost指定为某个字段。 `_boost`(应用在root object上)可以指定一个字段,这个字段的内容控制文档的boost级别。 例如下面的mapping:
```
{
"tweet" : {
"_boost" : {"name" : "my_boost", "null_value" : 1.0}
}
}
```
上面的定义指定了一个名为字段`my_boost`的字段, 如果要索引的JSON文档包括my_boost字段, 字段的值就作为文档的boost值, 比如下面的JSON文档的boost值为2.2:
```
{
"my_boost" : 2.2,
"message" : "This is a tweet!"
}
```
(注:name属性默认是`_boost`)
_parent
===
`_parent`用来定义子类型所关联的父类型, 比如有一个`blog`类型和一个`blog_tag`子类型, `blog_tag`的mapping应该是:
```
{
"blog_tag" : {
"_parent" : {
"type" : "blog"
}
}
}
```
`_parent`默认是stored以及indexed的, 也就是说可以用`_parent`来查询。
_routing
===
`routing`是索引数据或者需要明确指定路由时routing的设置。
store / index
`_routing`的mapping默认会存储routing的值(`store`设置为`yes`), 之所以这么做是为了可以在routing值来自外部而不是document一部分时仍然可以重建索引。
required
另一方面, 可以在`_routing`的mapping中设置`required`属性为`true`来将它设置为必需的,这在使用routing功能是非常重要, 因为很多接口会用到它。 如果没有提供routing值(或者不能从document获取)的话,索引操作就不会执行,再比如如果`_routing`是必须的但是没有提供routing值的话,删除操作就会广播到所有的分片(shards)上。
path
routing的值可以在索引时额外提供(并且作为document的一部分存储, 和`_source`字段存储方式很像), 也可以根据`path`自动从要索引的document提取, 例如
没有评论:
发表评论