digraph asde91 { ranksep=.75; size = “7.5,7.5”; bgcolor = “cornsilk3” { node [shape=plaintext, fontsize=16]; “Empire” -> “Kingdom”->”Phylum”->”Class”->”Order”->”Family”->”Genus”->”Species”; } node [shape=box,style=filled,color...
####human-computer-interaction #####Needfinding what do people do&&values and goals&&how these activities embedded ######interviewing choosing participants(representation of target users,such as stakeholders ,...
####网易游戏 不得不说网易游戏确实惊艳,最近几款我接触到的手游都非常出色。 我接触到的网易出品的手游包括梦幻西游,乱斗西游,有杀气童话,天下HD这四款,梦幻西游是一类,其他三个可以归为一类。 #####梦幻西游 梦幻西游当然是靠着端游的名气,自从出道就一直占据着app store畅销榜的榜首,相比于端游最大的改变当然就是简化,首先是伙伴这个东西,这个东西的出现让整个游戏在日常中没有了组队的必要,基本上所有的日常任务都可以单人通过伙伴来完成,对于很多小R或者非人民币的普通休闲玩家(也是绝大多数玩家),能够轻松的完成日常任务是非常重要的,如果像端游一样还要等待组队的话基本上就不会有人玩了。 伙伴的出现其实只是对玩家与玩家之间交互的一部分,玩家与玩家之间的交互被削弱,影响的其实是入门级别的玩家,对于真正的高端玩家和消费多的玩家来说,他们要体验的还是玩家和玩家的交互,这一点梦幻西游也做的非常好,然而我作为一个穷吊,并不能实力分析这一部分。至于其他的改变基本上就是端游到手游一定要做的改变了,个人认为梦幻的移植策略就是通过削弱玩家和玩家之间的非竞技和低端需求的交互,来吸引更多的玩家,但是仍然要提供非常有吸引力的玩家与玩家之间的竞技需求,来保持高端玩家的热情。 #####乱斗西游&有杀气童话&天下HD 上面说的策略其实不光是梦幻西游的策略,也是很多手游共同的策略,这三款也不例外,这三个放在一起的原因是,除了操作,画面,背景上面的不同以外,它们实在太像了,都属于首先根据背景故事有几个章节,每个章节由几个关卡构成,玩家打通章节和关卡或者提高等级以后会解锁不同的内容,包括一波一波怪出现的刷图模式,竞技场,一个图一个图的刷图模式,总之就是很多的不同的刷图模式,这跟大部分手游也是一样的,盈利方式也实在是太像了,都是一个首冲6块钱,月卡25,永久卡60块,需要抽宠物或者伙伴的时候分单抽和十连抽,简直是一模一样啊,不过仔细想想也确实没有改动的必要。 之所以要出三款游戏,我觉得应该是为了满足不同的用户的需要把,比如有杀气童话,其实跟乱斗西游操作也很像,大部分地方实在太像了,但是乱斗西游的画面,音效,场景和背景故事其实更适合男生,当时宣传的MOBA类手游也更能吸引到男生来玩,就我个人在乱斗西游的游戏经历来说,男生其实是很少的,而有杀气就完全偏向于女生的爱好,各种方面都很贴合女生的需求,难度也比乱斗西游低,这几个游戏的画面可以说都是手游里非常不错的。 网易游戏在手游的发展真的给人一种惊艳的感觉。
#####Text Mining and Analytics paradigmatic关系,即同一类单词 同一类单词的关键是上下文相似性,评价相似性:单词出现在上下文中出现概率组成的向量相乘 减少the这样频繁出现单词的贡献度,log(the出现的文档数/总文档数) synagmatic关系 两个单词同时出现的,即两个单词各自出现时对另一个的贡献度 熵,单词出现越容易发现规律,比如the,几乎一定会出现,熵越低 明白某个单词出现后对于预测另一个单词时会降低它的熵,让它更容易预测 mutual information相互关系,因为p(x y)和p(x z)不可比,所以用i(x,y)这样的形式,实际上转换成了单词对关联度的排名问题 #####topic mining 输入:文档集合,主题集合 输出:主题集合 由每个文档关于某个主题的概率组成的向量...
#####Text Mining and Analytics coursera上本周刚开的课程Text mining & analytics,网上没有中文字幕,暂时自己翻译了一份,错误很多,很多词听不懂,希望大家来一起改正。 week1.1 dfxp & week1.1 content week1.2 dfxp & week1.2 content week1.3 dfxp...
#####cost function binary classification 1 output unit multi-class classification(k classes) k output units
#####why non-linear hypothesis 对logistics regression 和linear regression来说,选择一个足够复杂能够有很高预测精度的function就意味着要构建很多的feature,假如要构建一个二次方程形式的hθ,如果有100个attribute,就意味着要构建5000个feature,而且即使这样很多时候二次方程也不能很好的拟合数据。 在图像处理上,如果图像的像素很大,linear hypothesis要构建的feature就很多,运算量也会变的很大。 ######background on neural networks neural networks试图模仿大脑的工作原理,这里有一个one learning algorithm的概念,看了两遍才看明白,就是大脑对于视觉,触觉,听觉等等所有信息采用的都是一种处理方法,也就是说,如果把耳朵和负责听觉处理的大脑皮层切断,向负责听觉处理的大脑皮层传递视觉信号,负责听觉处理的大脑皮层同样可以处理,这样那部分大脑皮层就可以学会”看”。 基于这一点,有人将视觉信号传递到负责味觉,听觉等等的大脑皮层,用来设计帮助盲人建立视力的设备,如brainport wiki和haptic belt...
#####数据源 #####事实表 #####维度 #####度量值 #####命名计算 #####计算 #####上卷下钻
#####overfitting 当从训练集中提取过多的属性用来建立hypothesis时,可能导致过度适应数据,选取某些很复杂的方程可以很完美的贴合训练集数据,但是对要预测的用例可能并不会有很好的表现 为了解决这一点,实际上就要剔除掉模型中那些实际上导致overfitting的属性 如上图所示就是overfitting的情况,在做机器学习的时候,很多时候我们刚开始的时候并不知道选取哪些属性,只能尽可能多的选取属性来构建hypothesis拟合训练集中的数据,很容易导致overfitting的情况,但是我们又不能主观的减少选取的属性,为了解决overfitting问题必须提出一个新的cost function,而解决overfitting的过程称为regularization #####new cost function 新的cost function除了原有的评价拟合度之外,又增加了一个新的项λ*sum(θ^2),λ是regularization的系数,加入新的项之后,θ越大,cost function也就越大,在gradient descent中要减少cost function,也需要不断的减少θ,这样对拟合训练集中数据影响不大的feature对应的θ就会不断变小。 θ0不需要进行regularization theta_1=[0;theta(2:end)]; J = sum( (-1 .*...
#####cost function: 用以下两个式子来做cost function cost function:-log(hθ(x)) 当y =1 cost function:-log(1-hθ(x)) 当y = 0 可以看到当y为1时,如果hθ(x)得到的是1,那么cost function为0,如果hθ(x)得到的是0,那么cost function趋向于正无穷,当y为0时,如果hθ(x)得到的是1,那么cost function趋向于正无穷,得到的为0,cost function为0。 cost function是用来评价hypothesis对训练集的贴合度的,对于分类的情况,这样的cost...
对于linear regression来说,我们可以选用不同的函数形式来拟合不同分布表现的数据,但我们仍然会得到一条linear function形态的hypothesis,因为我们选用不同的函数形式,实际上是对feature的重新利用而不是真正选用了新的函数形式。 如果我们要对离散的数据进行拟合,即classification,那么就需要用到logistic regression,而logistic regression是真正的改变了函数形式。 在linear regression中,hypothesis的形式为h(x) = θ*x ######sigmoid function(logistic function) wiki 我们很早就接触过这个函数,在生物上,当一个物种迁入到一个新生态系统中后,其数量会发生变化。假设该物种的起始数量小于环境的最大容纳量,则数量会增长。该物种在此生态系统中有天敌、食物、空间等资源也不足(非理想环境),最后会达到一个上线,logistics function就很完美的表达了这个增长趋势。 hypothesis 的形式为:hθ(x) = P(θ*x)...
#####1:Feature scaling 当含有多个feature的时候,每个feature的取值范围可能不同,但对于gradient descent算法来说,递减的幅度是由α来控制的。 如果有的feature取值范围是1~100,有的是1000~100000000000,在梯度递减时可能有的feature一步会迈的很大,而有的feature会迈的很小。 所以要对feature进行scaling,使所有feature的取值范围都大致处在-1<=x<=1中。 #####2:mean normalization 进行feature scaling的常用方法,对每一个feature值Xi,Xi-(middle(X))/(largest(X)),这样可以使每个feature的取值范围为-0.5<=x<=0.5 将数据标准化,可参考wiki matlab示例 meanvalue = mean(X); % mean value stdvalue =...