2006 年,徐英瑾开始注意到人工智能的时候,这一领域尚未成“风口”,也没有那么多的公司把 All in AI 挂在嘴边上。


复旦大学哲学院徐英瑾研究方向从英美分析哲学开始,选择研究人工智能哲学更关键的原因是,如果能够通过一种机械设计的方法,把人类智能的方方面面重新捋一遍,就可以对人类的心智有一个更深入的了解。


与主流不同,徐英瑾不认为目前 AI 的主要实现方式足够“智能”:通过大量的语料对其进行训练,”什么东西都可能喂它,只能喂出一个平均数来。”在徐英瑾看来,人类文明中真正的精华被稀释了。


AI 被众人认定成为未来经济的增长极,它神秘而轻盈,当下的我们像是注定会被子弹命中的靶子,每日睁开眼就准备好肉身,迎接它的最近发展。然而在徐英瑾看来,目前基于大量语料的 AI 从根本上就错了,甚至还不如二战后它刚刚诞生的时刻。


最近,徐英瑾在思考怎么用 AI 写剧本,他在自己尝试一种新的 AI 思路,他的路子不是研究大量的案例,而是研究经典案例,《奥狄浦斯王》《罗密欧与朱丽叶》,希望能利用亚里士多德的诗学理论加以架构,“基本上是个逻辑上的路数,step1、step2”。徐英瑾认为真正的人工智能“以小见大”,现在是“以大见小”,从海量的材料里面去找答案。


徐英瑾说自己想走“精英主义的路线”,挑最好的剧本、最优秀的哲学家,都是最主流的,别的全部不认,希望能用最经典最优秀的材料喂给机器,“现在的东西好坏大家都说不清楚,有人说好、有人说坏,我挑莎士比亚,谁敢反对我?”


徐英瑾


在徐英瑾看来,当下的人工智能的问题并不是太智能,而是太不智能,它并不具有和人类一样的思维能力,无法将从大量材料中习得的能力迁移到其他活动中。从这个角度来说,目前人工智能甚至还不到谈论伦理的程度。


然而,在他看来最让人担心的反倒是 AI 在当下会制造出大量的虚假信息,直到我们无法相信自己的感官,徐英瑾觉得这是一件真正可怕的事情。尽管,同样的事情也许在 Photoshop 诞生的时刻也发生过,“但动的图像这种东西显然是给人更强的冲击力,而且它能说话,有语音,它的可信度就更高了,所以会给人造成一个更加大的影响。”


徐英瑾觉得当下进入了一个“人工智能迷雾时代”,它能提供的都是工程学上的突破,我们好像为了创造 AI 而在创造,但拥有了 AI 可以做什么?我们并不清楚。这和任何一次可以称得上工业革命的技术变化都一样:在之前我们都是先有目的,再有创新。而当下,我们似乎是为了创新而创新,未来 AI 会带给我们什么?一定都还不曾明确。


以下是我们和徐英瑾的更多对话:


问:AI 的迭代发展是非常快的,我们应该怎么去面对这种非常快速的更迭?AI技术是不是被塑造得好像无所不能一样?


徐英瑾:它当然很多事情都不能做。网上有一个段子,小时候以为发展 AI 的目的就是让它帮我洗衣服、打扫房间、干活,我就有时间去写诗、画画;现在发现它在替我写诗、画画了,我还得自己打扫房间。


人类最繁重的底层的体力活动,现在 AI 也不能够很好地取代,但是从 Alpha Go 下棋开始,AI 是从人类高端智力活动开始做的。当时我就有一个疑问,下棋本身也不是一个职业,世界上真下围棋的人也不多。下棋的主要目的是陶冶情操或者锻炼智力,并不是为了下棋本身,只有很少数人是把段位的晋升当成是一个职业,大多数人就是玩玩。


人类有迁移的能力,能把下棋得到的智慧迁移到别的工作领域。这种能力对 AlphaGo 来说是不存在的,它主要就是完成下棋这样一个任务。在这个意义上,AI 技术突飞猛进,但和产业以及生活中的痛点未必是高度重合的,我们特别需要解决的问题,它未必就解决得好。


现在大语言模型是要基于大量的语料训练,通过统计学的方法,AI 能够知道一个语言出现以后,接下来的语言是什么。AI 的预测能力非常强,它可以处理很长的句子,记忆构架也比较强,这确实是这几年的进步,之前 AI 不能处理复杂的句子。


这看上去的确是很让人震惊,对于文牍工作的强度来说肯定会有所降低。有些国家的文牍工作是非常繁文缛节的,日本的公文体都要用敬语,实际上不太好写,日本人自己也觉得写起来很累,现在 ChatGPT 来写就比较好。


但是它对于文牍工作的减少,是不是能够在根本上提高人类的生产率?我是很怀疑的。随着每一次文牍工作的负担降低,反而增加的是文牍工作的总量。工作量降低了,但总量又会上升,因为容易做了,又会产生更多的公文,原本应该得到的休息被抵消掉了。所以从总体上来看,未必是人类生产力就大量地解放了。


问:你怎么看待 Sora 的发展?最近的新闻是 Sora 要去跟好莱坞的片方和导演、编剧见面讨论未来的发展,Sora 的发展会在什么程度上改变影视行业?


徐英瑾:大语言模型发展到 Sora 这一步也不是很奇怪,因为其预测语言的方法很容易把它和视频、音频联系在一起。这就会导致它可以通过语言的符号提示,来进行图像的展示。


很多年前就已经有根据提示词来做的程序,只不过是现在变成了视频,而且视频的解析度、画面的流畅感越来越高。但是这个路子是很清楚的,无非就是算法在迭代,数据更加厉害。


但会不会对影视的创作构成一定的影响,可以以更小的成本来拍摄影视剧呢?也许是可以的。但是在这之前,它首先会在短视频领域里面为假新闻的创作提供便利。我们未尝其利可能先尝其害,有大量这样的视频根本没办法判别它到底是真的还是假的,给我们制造了巨大的信息迷障。


人类进入了人工智能迷雾时代,人工智能的发展和人类历史上的每一次典型的工业革命都非常不同。第一次蒸汽机革命解决动力问题,第二次电气革命进一步地解决动力问题,尤其在第二次电气革命的时候,一口气把电报、海底电缆各种问题都解决了,通讯对商业发展来说有极为显著的意义。


对于人工智能时代来说,我们的社会对于自动的信息处理、写作的能力,是不是有一个很强的需求?这是一个很大的疑问。现在思路很奇怪,先有技术,再来思考应用场景,以前都不是这样的。以前是先有应用场景,然后来思考技术,飞机、轮船是在这样思路下产生的很典型的东西。


问:怎么理解你所说的这个人工智能迷雾时代?


徐英瑾:对于 AI 来说,我们先要应用,这就非常好玩了。 AI 发展已经在一定程度上脱离了古典的技术模型,亚里士多德以来的技术模型是先要有目的,再找手段。菜刀是用来切菜的,所以要有菜刀,这是很简单的一件事情。现在我们好像就是要把这个东西本身做得很好,但为什么呢?不知道。


这就像有一个人在撒哈拉大沙漠中央打造一个帆船,有人说你为什么在沙漠造帆船?回答是先做出来再看。和它相对,从目的出发看在撒哈拉大沙漠里面能不能造一个汲水的装置,这个应用目的非常明确。


很多人都问一个我觉得有点傻的问题:为什么 OpenAI 发生在美国,没有发生在中国?我却觉得另外一个问题其实更值得问:为什么谷歌没有做出 ChatGPT,而是 OpenAI 做出来了?


道理非常简单,因为谷歌是大公司,大公司是要脸面的,有一个法务集团来警告他们不能做很多事情,因为如果谷歌做了会被法律诉讼缠身。因为它会大量从网上扒取材料用于训练,这些材料有可能都有各自的版权。谷歌是一块大肥肉,大家都想咬一口。OpenAI 小公司,野蛮生长,先玩了再说,但现在 OpenAI 也碰到问题了,马斯克已经告他了。


问:但是谷歌也在做这件事情。


徐英瑾:这件事肯定是要做的,谷歌为什么步子迈得那么慢?因为有法律上的忧虑。现在很多人看到 Sora 拍出的片子,东京的场面非常漂亮,但大家都没有看到预先训练它的材料已经好到什么程度了。这就类似于仿造对象都已经非常精致了,跟着它做,当然就容易做得很好。


这类似于有一个人看了一部电影,觉得这部电影拍得很好,但不知道这部电影是翻拍自某一部已经很好的电影,剧本都不用主创团队想。如果大家知道这个作品是珠玉在前,只是翻拍的,肯定就会觉得也不过如此,因为原创性比较低。如果让 Sora 生成一个木卫二的视频,可能就不会那么精彩,因为这方面的素材是相对少的。


问:之前出现在科幻电影中的场景,借助科技已经变成了现实。如果这么思考下去,我们发展 AI 的目的,是否就是实现人类对于未来和科技之前的想象?


徐英瑾:科幻电影里的人工智能和现有的人工智能存在巨大的差异。比如去年美国一部新的科幻电影叫《芬奇》,讲一个工程师在臭氧层破坏的环境下,美国大多数人都死了,主角要调教一个机器人,希望他能去训练一只狗,主角把图书馆里所有和狗相关的材料全部撕下来、扫描,喂给这个机器人,它就可以形成一个知识框架。


现在的大语言模型训练不是这样,没那么简单,一定不是把书扫描下来就能够接受信息了。这点材料是绝对不够的,它要进行更大规模材料的轰炸。真实情况下,大语言模型训练所有的材料全部放在一起,一起训练,这个方法更加野蛮,规模更加大,并不是像现在科幻小说和科幻电影所描述的这么小规模就能做到。


哲学上有个“格赖斯式的语言现象”的理论,格赖斯是个美国语言哲学家,这个理论说的是人类能够通过视线,即使别人的语言说得很不精确,也知道对方说的是什么。比如,我们问 AI 这是什么?AI 说这是一杯水。又问 AI 那是什么?它可以随着你视线的移动来给出答案。


格赖斯举了一个语言例子,在一个酒会上假设只有一个亚洲女孩,这个亚洲女孩穿着和服,然后就去问旁边的那个人:“那个日本女孩叫什么名字?”而被问的那个人正好认识那个亚洲女孩,也知道她根本就不是日本女孩,有可能是韩国的女孩,正好这天 cosplay 穿了一个和服。但是他仍然能够准确地知道你指的是谁,因为这个人最像你提到的那个人,其他人都不是亚洲人。


但是如果是个机器人,或者是大语言模型的话,就会用很机械的方法来进行回答这个问题:这里根本就没有日本人,没办法猜测别人的心理。这种猜测是跟具体的语境特征密切相关的,现在的大语言模型会把各种语境的信息全部扔掉,做完全的平均化处理。


问:AI 进行语言处理的时候,可能会遇到哪些困境?我们知道的就是它很有可能出现前言不搭后语的情况,这是无法避免的吗?


徐英瑾:当 AI 要进行语言处理的时候,一个最大的问题就是经常把代词搞错,男他女她。只要人物关系多了,AI 就搞不清楚说的是谁了。因为尤其在汉语和日语里面,主语有时候会被省略,要通过上下文来猜这段文字说的是谁。人是没问题,机器可能就会蒙错,它没有视线移动的能力。


在这个意义上 ChatGPT 很难成为人类具体实际工作的合作伙伴,它可以用一种上帝之眼来看世界,但没有办法把所有碎片式的图景,在一个具体的语境中组合起来。


问:但目前也有一些可以提供情感陪伴的 AI 应用,比如说 AI 恋人之类的,你怎么理解这些应用?


徐英瑾:有一个很典型的故事就叫东京玫瑰,就是二战的时候日本人找了一些英语很好、在美国长大的日裔,为日军服务,其中有一个小组叫东京玫瑰,向美军进行心理战的宣传。


美国军官本来不想让士兵听这些内容,因为这是日本法西斯的宣传,但这个团队女声特别柔美、好听,对士兵有心理疗伤的作用,就决定让大家听了。但非常奇怪的是,这件事反而促进了美军的士气,美国人把她讲的内容全部抛光了。


因为美国人根本就不相信她讲的任何东西,他们目之所及自己在打胜仗。在这种情况下,这个小组说日本人赢了,是不符合事实的。但是大家对她的声音实在着迷,因为特别性感、特别好听,起到一个陪伴恋人的作用。


人如果在极度的缺乏情感支持的情况下,即使是这么低的一些输入,内容完全是你不爱听的,还是会起到陪伴作用。这是人类的特点,人是社会性动物,对于好听的声音、脸蛋和微笑有一种天然的偏好。


这种东西在人工世界中非常容易制作出来,通过拟人化把没有生命的东西让人对其产生好感。这是一件非常讨巧的方法,但是它离科学上要实现的智能是相当遥远的,因为它很容易做到。


问:它远远不是电影《Her》里面那种程度。


徐英瑾:它做不到的,因为真实的两个人,不要说谈恋爱,朋友关系想要深入,也要价值观、人生经历都契合。很多恋爱片里面都是主角一开始吵架,吵到后来碰到一场地震、火灾,两个人齐心协力逃出来了。当然在这种过程中,又有机会男性体现出了他在危险时候的担当能力,女性发现他没有像表面上那么渣男,然后经过了这种测试以后两个人感情再加深。比较真实的情感关系都是要通过实在世界里面的聊天建立起来的,如果没有聊天肯定就不行。


问:现在用数字技术复活一个人的例子越来越多,这有伦理风险吗?


徐英瑾:如果大家都知道,这仅仅是一个数字的怀念的东西,这都无所谓。如果是已经死了很久的人,风险是比较小的,大家都知道这应该是 AI 复活的。比较危险的就是刚刚去世的人,这可能会造成某种信息混乱。


这个技术也很容易会用到某个活人身上,比如它可以制造某一个政治家的影像,借用他的声音和图像,让他说一些本来不会说的话来误导人民;也可能会制造一个假的商业领袖形象,说一些话破坏自己商业利益的话,竞争对手可以干这些事情。


虽然这都是违法的,可以去提告法院,但法院接案、处理的过程中,可能会造成麻烦,甚至对现行的法律体系造成破坏。如果这些事例的数量过于庞大,以至于法院已经无法处理,会对现在的法院系统构成巨大的冲击,这个危险是比较大的。


问:人类社会当中我们已经讨论了很多年的伦理问题,但伦理问题总是存在各种各样的边界,当人类遇到 AI,我们怎么去思考伦理问题?或者说我们需要在 AI 领域思考伦理问题这件事吗?


徐英瑾:AI 会把伦理问题搞得更乱。首先人类的伦理问题其实已经乱成一锅粥了,人类还有一些基本的边界,比如身体参与是伦理的基本要素,但是AI会破坏这所带来的边界感。


举个例子,我们平常说眼见为实,眼见为实就是身体参与。眼睛要看到,但是有图像造假的可能性以后,眼见就不一定为实了。这对我们从采集狩猎时代所形成的、对于感官的信任造成了威胁,产生了一种对感官自身伦理的不信任。我们都不相信我们自己的感官了,这是件蛮吓人的事情。


另外一件事情,撒谎这件事情在各大文化里面都是一个负面的事情,一般没什么文化是鼓励撒谎。但是一般来说。撒谎本身要有一个鉴别、惩罚机制,撒谎现象才能够得到压制。但是如果用 AI 来制造假新闻和假图像的门槛变得非常低的话,那么对于撒谎的惩罚机制就跟不上了,伦理措施就有可能失去。


任何一个伦理的措施要变得有意义,是指鉴别和避免某种行为都是可能的。比如举一个例子,你不可能把不踩死蚂蚁作为伦理原则,因为太难做到了;不踩死大象也不会作为伦理原则,因为没人能做到。相反我们肯定会把开车时候不要撞人作为一个伦理原则,因为这是有些人会不做到,但是努力一下就能做到,这就叫伦理原则。


但同样的道理,不撒谎也是类似的例子,你要能够通过有意识的活动辨别哪些人在撒谎,哪些人不在撒。如果撒谎和不撒谎的辨别成本非常高,这就使得惩罚撒谎这件事情变得非常难。而撒谎这件事如果本身又非常容易的话,这会让撒谎行为控制不住,这是现在一个比较大的问题。


很多人都主张要给 AI 设立一个伦理法,但这种想法始终没有搞清楚一个问题:AI 不是人。新移民进入一个国家,对这个群体进行立法,按照新国家的法律来规范移民者的行为,这是 OK 的。因为只要是人类,肯定有本质上的相同,都是一个物种。


AI 本质是个大语言模型,通过大量的语言学习和统计学的规律来输出很多东西,似假而真、似真而假是它的本质性规定。它只要样子上像真就可以了,并不缺乏对于世界本身运作的这种了解。法国 AI 专家杨立昆(Yann LeCun)认为,现在大语言模型的路径是根子上彻底错了,所以他主张要做出世界模型。当然我也认为世界模型不是个聪明的路子,但是要比大语言模型要好一点。


问:你的路子正和不正指?


徐英瑾:智能的本质是以小博大,而不是以大博小,人类可以获得很少的信息,但是能猜测很多东西,这叫智能。智能的典型特征就是诸葛亮做《隆中对》,通过很少的情报搜集就给出了一个方案,这就是一个所谓的智能。不是知道的东西多就叫智能,这和作弊有什么两样?如果我自己参与高考命题,我当然能把高考的题目做出来,但这是作弊。


问:你觉得我们有朝一日能做得出真正智能的东西吗?


徐英瑾:可以,所有的路径要推翻重来。真正的智能需要对于人类的心理架构进行了解,人类的心理架构能够以小博大,而且人类的心理架构还有一个特点,我们会逐渐形成自己的政治态度、价值态度和伦理态度的信息接收方案。有些信息喂给人类,会不被接受,因为会和已有的其他信息产生过大的矛盾。


现在的大语言模型只要用足够的信息来填充,就可以变成任何样子。但人类正常信息处理方式是锚定效益的,小时候接受什么信息,长大就这么相信了,再改过来难度相当大,前面的活动非常重要。


问:心智确实是更像人的一个东西,反而是现在讲的这个模型,这样看来更像工具。


徐英瑾:很不像人,它是个工具。这个工具有很多的应用层面的用处,机器翻译的时候,翻译得更精准,但是要进行人工的调整。AI 小语种的翻译能力不行,比如旅游英语,但一般日常的东西都是可以的,文学方面的翻译相对来说更加靠谱一点。我曾经测试让AI翻译《楚辞》,它也可以翻译出莎士比亚十四行诗的味道。


我举一个例子,如果你是一个作家,英文还可以,想写一个英文小说。我们都知道用英文写小说,要比用英文写论文要难多了。有了 ChatGPT 以后,实际上是可以把自己的稿子翻成英文,但是自己要懂点英文,否则没办法校对,只是说英文不需要那么好了。这对于促进民族之间的文化交流来说,当然是一个很大的帮助,能够提高大家工作效率。


如果不解决核心生产力的问题,外围的东西不会成倍地提高效率,只是可以做很多复制的工作。AI 能做的工作就类似于,有工匠雕了一个很漂亮的观音头像,AI 用 3D 激光扫描、打印的方法帮我做了一千个。但第一个原本要做得好,否则复制什么东西呢?现在它只是解决了后面的复制问题,原本的问题核心生产力还在人类这里。


问:我们真的需要一个像人的 AI 吗?


徐英瑾:需要,因为有很多应用场景。比如马斯克要到火星上去,肯定第一批要派机器人去,而且它需要有非常灵活的问题处理能力,并且也不能依赖大语言模型,因为我们还盼着这些机器人把数据传到地球来。


所以我们就需要 AI 像人一样能够做决策,这种能力不是现在大语言模型能够做的。但是人类的语言学家能够解决这个问题,AI 其实能够模拟人类语言学家学习一种很陌生的语言,进而进行推理,推理出每个词是什么意思,推理出语言的结构。目前在技术上已经可以实现了,但没人研究。


问:为什么 AI 一定要像人呢?这会不会是人的一种一厢情愿呢?


徐英瑾:你要指“像人”是什么含义?不是指在外观上像人,而是它的信息处理过程要像人。AI 肯定不是在神经元的层面上像人,而是指它要像人一样,通过少量的情报就可以推理出大量的东西,因为这种做法最节能。


如果少量的情报就能够推理出很多东西,那显然是一个非常聪明的方法。最早的 AI 是在二战以后被创造出来的,那个时候还是有点像模拟人类的智能,是走逻辑推理路数的,但现在离逻辑推理越来越远,做统计学了。


统计学这个路数的一个最大的问题,是要有很丰富的统计学材料,没有统计学材料统计什么?逻辑的好处还是很明显的,材料少的时候还是能推理,它可以从草蛇灰线里面推这件事情。类似于有一个例子,金朝有一个皇帝叫金章宗,他是宋徽宗的粉丝,一天到晚模拟宋徽宗的字,模拟到后来文物专家就根本搞不清楚哪个是金章宗写的,哪个是宋徽宗写的。


一个金章宗的作品,之前被认为是宋徽宗的作品,但一个日本专家指出这是金章宗写的,不是宋徽宗。金章宗的很多作品中都有所避讳,而避讳的对象和他的父亲有关,如果是宋徽宗的话,他没必要避这个字。通过很小的一件事情,这个专家没有看很多材料就得出了大家都认同的答案,用统计学的方法,是没有办法完成这个推论的。


问:很多人对 AI 有恐惧的情绪,你觉得这种恐惧是来自于哪里呢?


徐英瑾:很多人可能会关心是不是自己的工作岗位会被取消之类的问题,这是其中一个恐惧。马斯克也有一个恐惧,他会恐惧人类会被 AI 消灭,这个恐惧大概大多数人都不会有,他想得比较多。


但是 AI 会具体消灭哪些具体的工作要看具体情况。我到现在都不觉得 AI 能够彻底地取代快递小哥的工作,它还是没有办法解决一些投送的问题,除非它把全国的所有快递箱进行统一标准地改造,成本太高了,还有各种小区很难找,这都是难度非常高的。


什么事情要担忧呢?广告是个领域。因为广告的时间都很短,正好是在 Sora 的射程之内,所以事情就很麻烦了。影视这个东西是有点难说,因为现在大语言模型的处理,它的问题是对于故事长逻辑线的处理是不是会出现 bug,这是我们不清楚的。因为目前只是几十秒,如果扩充到几十分钟,就有可能出现前言不搭后语的情况。


人类在拍影视的时候,一不小心都会犯很多错误,比如某个古装剧,怎么前面和后面女主角的头型都变了。因为拍戏总是一段段拍的,但是故事是连在一起的,这就会出现很多 bug。


这些问题 AI 会不会犯呢?这是很大的疑问。我认为它原则上会犯的,检查这些问题需要逻辑。但现在 AI 不是一个基于逻辑的系统,逻辑不敏感于时间,时间的变化对逻辑没有影响,对就是对、错就是错。


基于语料的 AI 考虑的是语言之间的前后关联,前后关联变了它就会变,逻辑线索会发生变化。AI 没有逻辑线索的自我检查能力,是一种类似于只有几十秒记忆的物种,经历一个更长的时间线,它就控制不住了。


我们也不能够企望 AI 未来会发展到很高的程度,因为这样一来运算成本会非常高,基于逻辑才是最简单的又节能解决问题的方法。我们人类的脑子如果按照这种方法来运作,就不知道要多大,这肯定是不可能演化出来的。人类的前额叶能够在宏观上对一件事情的逻辑线索进行宏观考虑,AI 现在没这能力。


问:现在最近这一年多的时间里面,都还在非常热门地讨论 AI 的应用,现在能怎么样,未来能怎么样,但是很少有人讨论伦理层面的问题。


徐英瑾:伦理问题已经很多了,国内外都有出现,我对这个问题的讨论持悲观态度。在诺贝尔发明黄色固体炸药之前,我们更多用的是液体炸药,而且是 AB 配方,凑在一起再爆炸。这种东西本身就是不伦理的,因为会给使用者带来巨大的风险,本来就不安全。所以最好的办法不是制造一个怎么用液体炸药的伦理规则,而是根本就不用液体炸药,用更安全的三硝基甲苯(TNT)。TNT 是比较安全的,一般来说不配上一定的条件,运输过程中不会出现问题,相对安全得多,这样对所有人都安全。


所以我认为最好的方法就是不用现在这种主流 AI,它现在像液体炸药一样,有随时外溢出伦理风险,因为它太容易把真和假混在一起了。我个人认为去制造这些伦理规则,实际上没有太大的意思,不用它才是一个安全的方法。


比如举一个例子,你是一个动物保护主义者,看到这么多地方都在用马,觉得对马是种不公平的,希望制定一千条保护马的措施。我认为还不如听我的主意,咱们用汽车吧。用汽车的话,马不就被解放了吗?这些马的保护条例还要执行,还要用警察监督。所以现在所有的方法都不是从根子上思考问题,都是治标的,我不是很看好。


本文来自微信公众号:栩栩男仕 (ID:WSJmagazinechina),作者:张笑晨、陆莹,肖像摄影:肖南