一个人是直还是弯?这个人工智能算法模型一“看”便知

爱范儿  •  扫码分享

裸眼鉴 Gay?这事儿其实没那么不靠谱。

来自斯坦福大学的 一份研究表明 ,通过对照片中人物的表情、动作和神态进行分析,的确可以推断出对方的性取向。

研究人员先从在线社交网站上抓取了上千张公开显示的资料照片,然后再使用深度神经网络学习来从中抽取并建立数据模型。在对超过 35000 张人脸照片进行对比研究之后,他们建立了一种准确率相对比较高的性取向鉴别算法。


他们发现,比较典型的男同性恋者通常会展现出一些比较中性化的动作和表情,也更加关注自身造型是否时尚。比如说,他们往往拥有尖下巴、长鼻子,和比直男更宽的额头,行为举止也更加阴柔。


而“蕾丝边”(Lesbian,女同性恋者)们则正好相反,一般来说,她们的下颌更加宽大,额头也比较窄小。

根据这种算法,在仅对一张照片进行分析时,能够猜对图中男性是直是弯的准确率高达 81%;而变为分析女性时,准确率就会下降至 74%。这或许印证了一种有趣的观点,即和男同性恋者相比,女同性恋者的行为表现更加不显著。


(图片来自: John Bello )

不过当把分析的图片数量增加到每人五张的时候,准确率就大大地提升了。鉴别男同性恋的准确率达到了 91%,而女同性恋的也达到了 83%。

尽管把这种复杂的心理学问题用算法来解决听上去还是有点太过草率了,不过这种基于人工智能的算法的确比人类的“裸眼鉴 Gay”要更靠谱一些。数据显示,如果让普通人通过照片猜图中人物的性取向,猜中男同性恋的准确率为 61%,而猜中女同性恋的比例仅为 54%。

总的来说,除了鉴别性取向之外,这项研究的最大意义还在于提供了一种强有力的佐证,那就是人的性取向可能真的是与生俱来的。有的人从一出生开始就很“特别”,但这并不意味着他/她要被“特别对待”。他们和我们一样,都是普通人,都有选择自己生活方式的权利。

题图来自: Huffington Post    

未标注 插图来自:斯坦福大学


本文被转载1次

首发媒体 爱范儿 | 转发媒体

随意打赏

人工智能大数据算法什么是人工智能人工智能机器人人工智能算法
提交建议
微信扫一扫,分享给好友吧。