焦点期刊
投稿咨询

著作编辑 著作编辑

咨询邮箱:1117599@qq.com

计算机论文

计算社会科学的几个研究方法

时间:2021-12-19 21:49 所属分类:计算机论文 点击次数:

  一、双重动因:实证研究方法的探索与信息通信技术的进步

  一个多世纪以来,虽然实证主义一直是社会科学的主流研究范式,然而孔德当年的理想其实还远未实现,社会科学的实证研究至今仍面临诸多困境。实证研究需要通过观察、调查与实验获取关于研究对象的客观材料,然后对之进行科学的分析,才能认识社会现象,发现隐藏在现象背后的社会规律。因此,如何获取研究所需要的关于社会事实的信息资料,能否具备适合于研究对象的、有效的分析方法和技术手段,如何进行可靠的因果验证,是决定研究质量的关键问题。虽然社会科学家一直进行着不懈的努力,不断改进研究方式,丰富和完善技术实现的手段和工具,发展出了内涵丰富的方法体系,但迄今为止,在社会事实材料的获取能力、数据分析的方法与技术、因果验证的手段上仍然存在严重局限。长期的研究实践证明,真正有效解决这些关键问题绝非易事,这使得社会科学的发展史同时也是研究方法的探索史。

  20世纪80年代复杂性科学运动兴起,其中以圣塔菲(Santa Fe)研究所提出的复杂适应系统(Complex Adaptive Systems,CAS)理论的影响最为深远。该理论认为,作为社会科学研究对象的人类社会,是一个复杂适应系统,具有不同于经典物理学研究对象(自然界)的本质与特征,而传统的社会科学实证研究方法只能适用于简单系统。这使社会科学家对研究对象的本质与特征,以及传统研究方法的局限性有了更为深刻的认识,更加强烈地意识到必须创新出适用于社会复杂系统的研究方法,计算社会科学(Computational Social Science)正是在这种背景下应运而生。

  计算社会科学将计算机与信息通信技术(ICT)运用于社会科学研究,致力于克服传统实证研究方法的局限,为社会科学研究开辟新的路径。从20世纪90年代至今,计算社会科学已经形成了社会数据计算、社会模拟、互联网社会科学实验三大方法。尽管它们还远未成熟,仍面临诸多困难与挑战,但已然显示出巨大的发展前景。

  计算社会科学发源于西方,国内学界的相关研究也早已起步。特别是几年前大数据浪潮的兴起,更是让计算社会科学受到学界前所未有的重视。经济学、社会学、传播学、管理学、心理学、政治学等众多学科领域的学者,都在进行积极有益的探索。总体来说,这些探索中既有成功的创新,也不乏失败的案例。当前尤其需要注意的是,计算社会科学具有很大的学科跨度,对社科学者的知识结构有很高的要求,兼之计算社会科学所运用的很多新兴信息通信技术,都不可避免地要经历一个商业炒作周期。过度炒作的信息环境,使一些社科学者在一些重要问题上出现认知偏差。在计算社会科学发展的初级阶段,出现这样的问题虽然在所难免,但如不及时矫正这些偏差,势必影响国内计算社会科学研究的良性发展。因此,在经过几年的理论思考与研究实践之后,回顾计算社会科学的发展历程,系统性地总结其在理论、方法、应用上的成果,分析当前所面临的各种尚待解决的问题,探讨未来的发展方向,无疑是非常重要和必要的。

  二、社会数据计算:数据密集时代的计算社会科学

  (一)发展机遇:新一轮信息技术革命与大数据浪潮

  20世纪90年代,万维网等技术的发明,推动了原本主要为军事与科学研究领域所用的互联网向大众普及;21世纪初,移动互联网又异军突起,从而拉开了新一轮信息技术革命的帷幕。互联网、移动互联网将全球范围内数以亿计的用户连接在一起,重塑了人类的生产、学习、生活等方式。而网络技术与传感技术相融合而产生的物联网,也开始引领人类进入万物互联的时代,在人与环境之间建立起了广泛而高效的信息交互。此外,随着信息技术的突飞猛进,各种数字化设备不断增多,其功能日趋强大,使越来越多的人类行为得以借助这些新的信息工具来完成。新兴信息技术向经济社会的各个领域广泛渗透的一个重要结果,就是大量物理世界与人类社会的状态被各种数字信息载体记录下来,成为计算机系统里的数据(Data)。随着这些新型信息资料的持续快速增涨,人类社会迎来了大数据(Big Data)时代。

  大数据是在世纪之交提出的概念,它首先是被视为一种技术挑战。1997年美国宇航局研究员迈克尔·考克斯和大卫·埃尔斯沃斯发文提出“大数据问题”,即当数据集相当大的时候,会耗尽主存储器、本地磁盘乃至远程磁盘的存储容量,从而使计算机系统面临挑战[2]。1998年,《科学》刊发了一篇名为《大数据的管理者》的文章,标志着大数据开始进入学术视野。2001年,高德纳公司的道格·莱尼(Doug Laney)在分析当时的计算机数据的现状与发展趋势时,总结出“3V”特征,即Volume(数据体量越来越大)、Variety(数据格式类型越来越多样化)、Velocity(数据增涨速度越来越快,对数据处理速度的要求越来越高)。海量、异构、动态的数据集在获取、存储、管理、分析等方面的要求,已经超出了传统软硬件技术的能力范围,这意味着计算机工程师必须寻找新的方法。此后,随着分布式存储与计算、非关系型数据库、实时流数据处理等一系列解决方案的出现,大数据分析处理技术不断发展,相关难题逐步得以解决。于是,海量数据所蕴藏的价值成为社会各界关注的焦点。2008年9月,《Na-ture》杂志以“Big Data”为主题刊发一组文章,就海量数据所带来的挑战及其利用策略展开专题论述。这标志着除了技术方面的挑战之外,大数据作为一种新型信息资源的可利用性也开始引起重视。2011年,国际数据公司(IDC)又提出大数据的“Val-ue”特征(蕴藏巨大价值但价值密度低),将道格·莱尼的“3V”增加为“4V”。

  一直以来都在思考如何有效获得关于人类行为、社会运行等信息资料的社会科学家,敏锐地意识到这些数据的社会科学价值。2009年2月,大卫·拉泽尔等撰文指出,现代的网络生活正为社会科学家提供长时间、连续性、大规模的人类行为与互动数据。这些数据中蕴含的关于个人与群体行为的规律可能足以改变我们对个体行为、群体交往、组织结构乃至整个社会运行的认知。计算社会科学将能够以前所未有的广度、深度和尺度收集与分析数据的能力,为社会科学研究提供新的视角[8]。这篇文章拉开了将新型数据资源运用于社会科学研究的序幕。2012年5月,联合国发布的《大数据促发展:挑战与机遇》白皮书指出,如今可以使用极为丰富的数据资源,包括旧数据和新数据,来对社会人口进行前所未有的实时分析[9]。白皮书的发布在众多领域掀起了大数据浪潮,计算社会科学也获得了重大的发展机遇。

  (二)新型资源:社会数据的概念、来源与特征

  新一轮信息技术革命,使社会科学迎来了一个数据密集时代,可供研究的信息资源前所未有的丰富。这不仅是因为大量新型数据的出现,而且还缘于传统信息资料的数据化。大数据时代对社会科学的馈赠,除了新型数据之外,还有为应对海量、异构、动态的数据集而研发出来的一系列新的数据处理技术。正是由于大数据技术的进步,促使社科学者有计划地将传统的信息资料输入计算机,亦即使之数据化,以便借助大数据技术的强大能力对其进行分析处理。例如谷歌图书(Google Books)就是将纸质图书数据化而产生的数据集,其数据化的方式是使用具有自动翻页功能的扫描仪对书籍逐页扫描,生成图片;然后通过光字符转换技术(Optical Char-acter Recognition,OCR)将图片转换成便于查询、分析的文本。将传统信息资料数据化,不仅能够提高分析处理的效率,而且为分散化的信息资料的集成奠定了基础。例如,原本处于“孤岛”状态的各个政府部门所掌握的信息资料,凭借数据库技术能够关联整合在一起,成为多维度的政府大数据。

  对于社会科学研究而言,新型数据与传统数据的首要区别在于数据与研究框架的契合性有所不同。传统的社会科学研究一般是先有理论假设和研究框架,然后根据研究框架采用问卷调查、个案访谈、实验室实验等方法来搜集所需的信息资料,其数据的获取具有明确的指向性,故而与研究框架有高契合度。而互联网、移动互联网、物联网以及各种数字设备生成、采集的新型数据,来源于出于商业、娱乐、政治宣传等目的而建立的各种应用,并非为社会科学研究而量身定制,数据生成的目的极少能与研究的目的相吻合,因而数据往往难以契合特定的研究框架。

  新型数据资源种类繁多,但并非每种数据都可以用于社会科学研究,例如前文提及的美国宇航局的数据就不是社会科学家所感兴趣的。此外,天文观测、工业制造等产生的大规模数据集也一般不能用于社会研究。笔者把能够用于社会科学研究的由三大网络与各种数字设备生成、采集的新型信息资料(新数据),与将传统信息资料数据化而产生的数据集(旧数据),合称为“社会数据”。需要说明的是,“社会数据”在概念上既不等同于大数据也不等同于网络数据。大数据迄今为止未能形成统一的定义,较广泛地被接受的定义是具有“4V”特征的数据集。“网络数据”则一般指互联网、移动互联网、物联网上生成、采集的数据集(其中很多是大数据)。但在“社会数据”中,有一些新型数据与传统信息资料数据化而产生的数据集并不一定满足“4V”特征,例如有线电信网生成的用户通话记录等数据集也被用于社会网络分析等研究,这种数据集属于结构化数据。再如谷歌图书,谷歌原本计划将1.3亿种图书数据化,但只完成了约0.3亿种的扫描转换就因为版权纠纷而基本陷于停顿[10]。因此虽然其数据规模可观,但不具备快速增涨的特征,并且数据的模式结构也算不上复杂,主要是扫描形成的图片与经过转换而得到的文本。

  社会数据计算是指运用计算机与先进的数据处理技术,对社会数据进行搜集、分析、挖掘,将其运用于社会科学研究的一种新方法。它是当前计算社会科学的一个重要发展方向,其中最具前景也最具挑战性的是探索各种网络大数据的运用。三大网络及各种数字设备深度嵌入经济社会的众多领域,使网络大数据成为人类行为与社会运行的巨大信息库,其广度与深度前所未有。从个人行为心理分析到组织运行,从社会关系研究到社会网络分析,都能够从中获取有用的研究材料。基于网络大数据层面,社会科学研究者不仅能够从中发现知识和规律,而且还可以籍此对经典假设作出更为有力的验证。

  要将网络大数据运用于研究,理当首先了解其特征。当前对网络大数据特征的描述,一般都是从计算机科学的视角,归纳出其物理性特征(如4V特征)。但对于计算社会科学而言,比认识物理性特征更为重要的,是要认识网络大数据是否适合于社会科学研究,在社会科学研究中具备何种优势、存在哪些缺陷。笔者将与社会科学研究密切相关的特征称之为“社会科学特征”,简称“社科特征”,包括但不限于数据的完整性(研究所需信息能否全部获得)、数据的代表性(能否很好地代表研究对象)、数据的质量(是否真实准确地反映了社会事实)等。在社会科学界掀起大数据热潮之初,这一问题似乎未受到足够的重视。但其实它是极为重要的,因为只有对包括网络大数据在内的各种新型社会数据的社科特征有了清醒的认识,才能在研究中避开陷阱,保证研究质量,使计算社会科学持续良性地发展。

  (三)认识数据:网络大数据的社会科学特征

  对于网络大数据的社科特征的认识,学界经历了一段时期的争论。尽管2009年大卫·拉泽尔等在倡导将各种新型数据运用于社会科学研究时,就已经指出数据的获取与分析存在多种困难。例如,很多社会科学研究需要的数据都涉及个人隐私,如何既降低信息泄露风险又保留数据的研究价值,还有待制定合理的规章制度,因此数据的获取和保护是“最令人头疼的问题”。但是,受过度商业炒作的影响,一些似是而非的观点一度在社会科学界甚为流行,其中影响最为广泛的主要有:(1)数据完整论,认为网络大数据详尽无遗,穷尽了研究范围内的数据;(2)数据总体论,认为大数据时代的到来意味着社会科学研究能够实现“样本=总体”或至少是“样本接近于总体”的“全数据模式”,传统的抽样调查方法已不需要,数据的代表性问题也不复存在;(3)数据优质论,认为网络信息空间完美地映射了社会现实空间,网络大数据全部是人类行为踪迹的真实、自然、准确的记录。

  在经过一段时间的研究实践后,上述观点受到强烈质疑。例如,冯仕政提出了对于大数据社会科学价值的四种疑虑——不够真、不够全、不够整齐、缺乏代表性。罗俊等认为在社会科学研究中,各种新型数据的代表性、真实性、自然性以及算法的精确性是必须认真考察的问题。倪万等认为社会科学研究对象的本身性质决定了难以获取总体数据;大数据追求质量,但数据的混杂性与精确性却不可调和,因此对大数据应用于社会科学研究的价值需要更为理性的思考,既不能否定其积极的意义,也不能夸大其作用。马修·萨尔加尼克则归纳出大数据的十个特征,并指出其中有三个(海量性、持续性、不反应性)通常有利于社会研究,而有七个(不完整性、难以获取、不具代表性、漂移、算法干扰、脏数据、敏感性)通常不利于社会研究。对近几年来相关研究进行总结与提炼,可以总结出网络大数据三个方面的社科特征。

  1.数据完整性。由于网络大数据并不是依据社会科学研究的逻辑来生成和采集,一般不具备明确的指向性,因此在很多情况下,网络大数据无法提供特定研究框架所需的全部数据。此外,一些数据虽然已经存在,但由于涉及从个人隐私到国家安全各个方面的问题,因此并不是社会科学研究人员可以随心所欲地获取的。例如,一些经济金融、地理空间等方面的数据,能否开放是必须审慎考量的。已有学者指出,一些大数据的轻率开放可能会给国家安全带来隐患,如果在大数据处理方面落后,就可能导致数据的单向透明[19]。以上原因导致在绝大多数情况下,能获得的数据往往存在完整性问题。

  2.数据的代表性。三大网络与各种数字设备不可能(也无必要)覆盖人类社会的全部,因此网络大数据不可能记录到全部社会科学研究所需的数据。舍恩伯格的所谓“样本=总体”,实际上只能是可获取数据的整体。在社会科学研究中,总体是相对于研究对象而言的,脱离具体研究的具体对象谈总体,本来就是毫无意义的。而只要不是总体数据,就必然存在代表性问题。研究实践表明,在大多数情况下,可获取的网络大数据都不是随机样本,其代表性并不理想。

  3.数据的质量。起初,由于互联网的匿名性特征,网络大数据被认为具有真实性、自然性特征,但受用户成分复杂性、网络媒体政治化与市场化等因素影响,如今的互联网上充斥着“从以赚钱为目的的‘喷子水军’(Troll Farms)到老练的军事情报机构”,信息造假、信息操纵等不道德的使用行为正在扭曲网络媒体的信息环境。网络大数据在反映人类行为、观念、心理等方面是真伪混杂的,数据质量具有很大的不均衡性。

  (四)应对策略:数据互补、样本修正与交叉验证

  当前,社会科学界对网络大数据的社科特征的认识渐趋统一,如何在社会数据计算研究中应对其缺陷已成为一项重要的议题。

  1.应对数据的不完整性。应对不完整性的一个有效方法,是将新型数据资源与传统数据结合起来,使之相互补充。萨尔加尼克对此的总结是,既可以基于大数据资源进行补充性的传统调查,也可以在传统数据的基础上再运用大数据资源。在这方面,国内外的计算社会科学学者都已经作出了探索,尽管在国内还为数不多,研究水平还有待提高。早在2014年,大卫·拉泽尔就曾批评认为大数据方法能够取代传统方法的观点是“大数据狂妄”。近几年来,虽然网络大数据似乎最受社会科学研究者的青睐,但计算社会科学并非只关注大数据,而是用创新性的方法来使用传统数据和新型数据,以获得对世界更深刻、更清晰的认识;计算社会科学不会只在意数据的大小,而是更看重数据的社会科学价值,其宗旨是通过对大量数据的处理和分析来发现那些凭借传统社会科学研究方法无法发现的各种事物之间的联系,以更好地理解具有高度复杂性的社会,进而找到解决各种现实问题的有效办法。

  2.应对数据的不具代表性。在传统社会科学研究方法中,抽样分为随机抽样与非随机抽样。尽管在社会调查实践中,实现有效的随机抽样似乎越来越困难。例如,受访对象的拒答率一直在增高,这不仅增大了调查难度,实际上还可能不同程度地影响样本的随机性。但长期以来,因采用非随机抽样而导致研究失败的案例不胜枚举,所以社会科学研究者一般都会尽量回避非随机抽样。然而,要发挥网络大数据的社会科学价值,意味着必须面对非随机抽样问题。在充分认识到网络大数据的代表性问题后,已有学者在积极探索如何对代表性存在问题的样本进行修正。例如王伟等就进行了一项对美国大选投票结果的预测研究,该研究的数据来自于游戏用户,而游戏用户显然不可能很好地代表选民,但王伟等通过数据分组(数据量的庞大为分组提供了条件,该研究将数据分成了176256个组)与分层回归等方法对样本进行了修正,得出了高质量的研究成果[26]。这项研究提供了一个重要启示:在面对新型数据的代表性问题时,在拥有巨大数量的样本前提下,探索对非随机抽样的统计调整策略将是一个颇有希望的突破方向。

  3.应对数据质量的不均衡性。网络大数据的混杂性与不精确性将是常态,而基于目前人工智能水平的侦测识别技术,其能力尚相当有限。换言之,要判断网络大数据的质量,既不可能靠人工检验(数据量太大),也不能指望借助现有的技术手段实现精确识别。当前可行的方法主要有两个:一是对原始数据集进行随机抽样,提取一定数量的样本,然后由具有专业知识的研究人员进行人工检验,计算出误差率;再由样本的误差率推断出总体的误差率;进而判断数据误差是否会对研究结果的可靠性产生决定性的影响。二是将大数据研究与传统研究相结合,先利用大数据对相关性的发现能力的优势,进行探索性研究,但并不将大数据分析得出的结果作为最终的研究结论,而是据其提出研究假设,然后采用严谨的传统方法进行研究,使两者的研究结果形成交叉验证。

  (五)计算范式:理论数据双向驱动的社会科学研究

  计算机科学家吉姆·格雷在为解决天文学家分析、共享数据的难题的具体实践中,提出了有别于实验、理论、模拟三种范式的“第四范式”——数据密集型科学发现。此后,社会科学界予以借鉴,提出数据驱动的社会研究范式,即不以理论、模型为先导,而是凭借设计特定的算法让计算机从大规模数据中辨识出关键变量,发现这些变量之间的关联性,进而归纳出隐藏在数据中的关于人类行为与社会运行的模式。

  几年前,随着网络大数据驱动的研究取得了一些令人振奋的成果,学界曾一度出现“数据万能论”,即认为随着海量数据的出现,传统的“假设—建模—检验”式科学研究模式正在变得过时,即便在没有假设的前提下,将数据投入计算机集群之中,凭借统计算法就能发现传统科学未能寻找到的模式,数据的洪流将使“理论终结”。事实证明,这种轻视领域知识、轻视理论的“唯数据论”观点是盲目乐观。传统实证研究是理论驱动,先依据研究目的,对研究对象的信息进行相应的抽象、简化,再将明确的概念操作化为可测量的变量,然后采用规范的方法进行搜集。而数据驱动的社会科学研究的一大特点是“逆操作化”,即从可获得的网络大数据中通过数据挖掘来提取变量。如前所述,对于社会科学研究而言,所能使用的网络大数据其实都是互联网应用平台的副产品,因此通常是从不能完美适应研究框架的网络大数据中提取的变量,往往难以支撑特定研究的构念效度(Construct Validity)。这种制约无疑会导致这样一种局面——能够提取的变量较好地反映了什么样的概念,就开展什么样的研究。近年来计算社会科学领域出现了不少低效度研究,被称为“拿着锤子找钉子的暴政”,或“不是钉子当钉子处理的暴政”。

  计算社会科学家的观点与“唯数据论”者不同,既不认为理论将被终结,也不认为传统研究方法已经失去价值。例如,克劳迪奥·乔菲-雷维利亚认为“计算范式”是基于一种社会的信息加工范式,信息加工对于解释和理解社会复杂性方面具有重要作用;但计算方法并不脱离历史、统计、数学等方法,并且还依赖于田野调查、可视化分析等其他方法,以进一步解释和理解社会复杂性。

  社会数据计算应当理论与数据并重,其研究范式应是理论数据双向驱动,即以现实问题为导向,以社会科学相关领域的理论、知识、经验为基础,提出理论假设和研究框架,然后收集、选择适当的原始数据,并运用数据处理技术从价值密度很低的原始数据中提取适合特定研究框架的数据(数据挖掘),然后以提取的数据为基础,用科学可靠的方式来验证理论假设,从而发现、揭示人类社会的规律。

  当前,理论数据双向驱动的研究依然面临很多困难。在很多情况下,符合既定的研究框架的数据并不容易获得。原始数据中通常包含大量对特定研究无用的信息,例如,用户在互联网的各种论坛上交流讨论的内容可用于社会心态等方面的研究,但真正让社会心理学家感兴趣的,其实只是论坛所生成数据中的极小一部分内容。因为论坛设立的目的是为了满足人们交流、倾述、讨论或消磨时光的需要,那些关于烹调技巧、宠物饲养之类话题的讨论,对社会心态研究来说都是无用信息。因此,双向驱动的研究首要的一项工作就从原始数据中提取有用的信息。对于定性研究而言,可能是从杂乱无章的用户聊天、辩论内容中识别、提取出与研究主题相关的内容;对于定量研究而言,可能是提取研究设计中所需要的目标变量。是否能够尽量准确地提取有用信息,过滤掉无用的信息,亦即数据挖掘的技术水平(当前对社会科学研究来说主要是文本挖掘,对图片、视频等的挖掘还处在探索阶段)对研究的质量有重要的甚至决定性的影响。而当前以机器学习方法为代表的人工智能,还远不能使计算机像人一样理解文本,更不可能达到研究专家的分析水平。当前,自动内容文本分析和提取技术的能力边界是双向驱动型研究的最大制约因素之一。

  当前,社会数据计算正在蓬勃发展,其前景也被越来越多的学者看好。但作为一种新的范式,社会数据计算还远不够成熟,在其发展的过程中还将面临多种挑战,当前不应过分夸大其先进性,而应致力于进一步提升数据获取与分析的能力,以及研究方法体系的丰富与完善。

  三、社会模拟:对社会系统复杂性的认识与应对

  (一)应对复杂:对社会系统的再认识与研究方法的困境

  在20世纪80年代兴起的复杂性科学运动中,对社会科学最具深远影响的事件,当属复杂适应系统理论的提出。该理论的基础性概念是主体(A-gent)。主体指一种在环境中“生存”的实体,能够对外界的刺激作出反应,并根据外界环境的变化而主动地对自己的行为和状态进行调整;主体与主体、主体与环境之间可以进行交互作用;主体不仅具有感知能力与能动性,而且具有“学习”能力与适应性,即在交互作用的过程中不断“学习”和“积累经验”,根据学到的知识与经验不断改变自身的结构和行为方式,从而体现出适应环境的能力。复杂适应系统是由具有适应性的主体(Adaptive Agent)组成的,以主体行为与交互规则描述的系统。这种系统的主要特点是系统的演化往往既不按固定程式也不是随机发生的,而是在一定尺度内聚集、超过临界点后出现“涌现”(Emergence)。因此,约翰·霍兰指出,复杂适应系统宏观层面的演变或进化,包括新层次的产生,分化与多样性的出现,新的、更大的、聚合而成的主体的出现等,都是由微观层面的主体行为所形成的“涌现”的结果。也就是说,主体的适应性会导致系统动态演变的复杂性,微观层面主体的相互作用,能够生成宏观层面多样性、复杂性的现象。复杂适应系统理论将一般系统论(系统论、控制论等)与自组织理论(耗散结构论、协同论等)进一步升级,并从自然科学领域推广到生物与社会领域。

  国内,由钱学森提出的“开放的复杂巨系统”概念可视为对复杂适应系统理论的一种呼应。“开放的复杂巨系统”指规模巨大,与外界存在物质、能量、信息的交换,组分(组成要素与子系统)种类多并且具有异质性,结构具有等级层次性,组分之间具有非线性相互作用关系,处在不断演化过程之中的系统。钱学森认为社会系统是一种特殊的复杂巨系统。组成社会系统的元素是人,由于人的意识作用,系统元素之间关系不仅复杂而且带有很大的不确定性。社会系统复杂多变,不能通过简单的统计综合方法从微观描述来推断其宏观状态。

  在社会系统中,各种组分具有复杂的交互性,要素与要素、要素与系统、系统与环境之间存在普遍的相互作用,并且这些相互作用的关系大多是非线性的。正是因为主体异质性、主体适应性、因素交互性、作用关系非线性,导致了主体行为、系统状态和系统演变的多样性与不确定性。面对复杂系统,传统的科学研究方法面临困境。对于简单系统可以采用解析模型,但对复杂系统,确定变量之间的函数关系(数学与逻辑关系)一般是非常困难甚至是不可能的。传统研究方法采用很多假设简化问题,但假设越多,实际上意味着与真实系统的差距越大,因而只能视为一种理想的或特定的状态。例如,作为实证研究最主要分析手段的统计方法,能够很好地揭示基于趋同性现象,但对因主体异质性所导致的多样性往往无能为力;又如,传统研究方法对非线性系统的研究大多是将其简化为线性系统,这对复杂系统的研究来说无疑是存在严重缺陷的;再如,在复杂系统的演化中,直接和间接影响因素众多,相互作用关系复杂(往往不是单向性因果关系,如存在反馈机制),并且存在不确定性,很难归纳出明确的逻辑关系和数学方程。因此,凭借逻辑推理很难穷尽其变化,也难以建立数学模型,或虽建立了数学模型但无法求解。此外,基于还原论的传统研究方法无法建立起从系统微观行为到宏观涌现的桥梁[34],但正如凯恩斯所言,任何没有微观基础的宏观解释都是苍白无力的。

  复杂性科学对社会系统本质与特征、复杂的社会现象及其形成机理的揭示,也使社会科学家深刻而清晰地认识到,必须探索能够适应社会复杂系统的研究方法。而计算机技术的进步,为把仿真技术运用于社会研究提供了条件,从而产生了一种新的研究范式——社会模拟(Social Simulation)。

  (二)技术引入:计算机仿真技术与社会模拟

  计算机仿真一般分为三个步骤,即系统建模、仿真建模与仿真实验。系统建模属于系统辨识技术范畴,是基于对系统的既有知识,抽象出符合系统某一层次属性的概念模型或数学模型,以及构建与仿真对象同态性较好系统;仿真建模是根据系统模型设计算法编制程序,将系统模型转换为计算机能够执行的形式;仿真实验则是运行仿真模型,分析输出结果,并反复修正模型和相关参数,直至达到满意的效果。可见,计算机仿真实质上是在计算机中构造与现实世界相对应的“人工世界”,建立起与真实系统相对应的“平行系统”,在“人工世界”与“平行系统”中对现实复杂系统进行试验性研究。

  计算机仿真很快被引入社会科学领域,出现了以人类社会为仿真对象的社会模拟。社会模拟是依据某种社会行为的理论或经验,建立一个关于现实社会系统的计算机模型,然后模拟其动态过程。它以人工系统来模拟社会系统,旨在获得对社会结构、功能及其变迁更好的理解,并解释复杂的社会现象,乃至预测社会发展演变的可能方向。从20世纪60年代起,社会科学家即开始尝试建立各种计算机模拟模型,并不断予以修正。奈杰尔·吉尔伯特等将社会模拟研究分为三种类型:微观模拟、系统动力学模拟(System Dynamics Simulation)、基于主体的建模与仿真(Agent-Based Modeling and Simu-lation,ABMS)。三种类型的模拟各有长短,各有适合的应用场景。

  微观模拟以个人、家庭或组织为样本的大型数据库为基础,依据某些准则来更新样本成员,计算样本整体的合计统计值,并作出关于样本所在总体中期望变化的推论。它被用于评估社会安全、个人税收、养老金变化上的分布含义,其优势在于它是从真实的样本开始,因此在预测总体的未来状态上相对容易。但其重要的不足在于无法容纳主体之间的互动。系统动力学模拟能够模型化交互的变量,能够直接处理因果关系,其特点是处理集合的而非个体的主体,这使它很难模型化主体之间的异质性;并且,它很难呈现出主体的适应性(例如基于经验学习而改变的行为)。由于上述特点,系统动力学模拟较适用于宏观层面的社会经济现象。例如在著名的福雷斯特的世界模型中,个体的行为并不重要,它关注的是整体的世界状态[38]。系统动力学模拟是面向变量的而非面向对象的,要实现能够体现主体特性及其作用的研究,更合适的方法是面向对象的建模。

  面向对象的建模经历了从元胞自动机(Cellu-lar Automata,CA)到基于主体的建模与仿真的发展过程。元胞自动机模型的要素包括元胞、交互规则、网络背景时间。在形式上,元胞自动机模型由若干相邻的元胞(主体)组成,每个元胞从一个给定的初始状态开始,根据给定的交互规则(基于一个或多个相邻的元胞的信息来决定),随时间进程改变自身的状态。随着主体之间不断地交互作用,各元胞的状态在不同程度的改变之中,在宏观上整个系统也表现出一个动态演化的过程,因此这种模型能够展现因微观主体基于一定规则更新状态而使整体格局出现涌现的情况。早期最具代表性的元胞自动机模拟案例是谢林的种族隔离模型(又称“城市模型”)。该模型的特点是能够容纳具有适应性的主体,能够实现主体之间的交互,展现了微观个体行为到宏观系统状态的“涌现”。这种模型不足之处在于主体之间的交互规则是同质性的,并且一般要求交互规则较为简单一致。但在真实的社会复杂系统中,主体具有异质性,主体行为具有多样性,并且交互规则往往是复杂的。这些局限性使元胞自动机模型主要只能用于复杂系统的基础性研究与理论分析。当然,社会科学家必然会设法克服这些局限,使计算机模型更为逼真地模拟人类社会,对此努力的成果就是基于主体的建模与仿真。

  (三)方法创新:基于主体的建模与仿真

  基于主体的建模与仿真是一种面向对象的计算模型,可近似地将之视为参与者、交互规则、环境更为复杂的元胞自动机模型,基于主体的建模与仿真主要包括以下几个要素:主体、环境、交互规则、时间尺度。

  1.主体。在基于主体的模型中,可以设定具有自主性、目标导向、有限理性、异质性的主体的集合。每个主体都能够根据环境的变化作出相应的反应,并且有一个或多个目标,可进行多方面的推理、决策来采取行为,各主体之间还可以存在显著的差异性。

  2.环境。主体活动的环境可以是简化的,如一个人为设定的方框;也可以是与真实环境高度吻合的,如通过地理信息系统(GIS)制作的精确地图。

  3.交互规则。主体依据一定的规则采取行为,与其他主体互动。与元胞自动机模型不同的是,基于主体的模型可设定具有多样性、动态性的交互规则集,即当出现某种情况时,主体之间的交互规则可以发生变化,这更好地体现了主体的适应性(在具备了某种经验或知识后,能够改变行为方式)。

  4.时间尺度。基于主体的模型需要设定一个离散的时间尺度,主体根据时间进程采取行动,系统也随时间进程不断改变状态。

  由上可见,基于主体的模型克服了元胞自动机的一些缺陷,其功能更为强大,能够更好地体现出主体的异质性与适应性[40]。此外,由于近些年计算能力的大幅提升,基于主体的建模与仿真可容纳的变量可达数千甚至更多。这些优势使得它成为最受青睐的研究社会复杂系统的模拟方法。以下以美国的“国家规划情景1”(NPS1)对核袭击灾难的模拟为例予以说明。

  “国家规划情景1”模型是弗吉尼亚理工大学生物复杂性研究所为政府开发的,用于测试在灾难发生时,国家安全官员和应急管理人员所制定的应对措施的效果,评估造成损失的程度。显然,这种研究绝不能进行真正的实验,而只能用计算机进行模拟。

  “国家规划情景1”为事件驱动型模拟,此例模拟的灾难事件是恐怖分子在华盛顿市区引爆了一颗1万吨当量的小型原子弹。该模型设置了约73万个主体,在统计上可等同受影响地区的真实人口,并且考虑了性别、年龄和职业等因素(主体异质性);模型环境具有高仿真度,借助地理信息系统再现了仿真区域内的所有建筑与各种设施;模型设置了行为规则集,每个主体面对突然降临的灾难可能有不同的行为模式(主体行为多样性),并随时间进程感知灾难的情况,作出决策,采取行动(主体适应性)。

  基于主体的建模与仿真方法以一种自下而上的方式,基于个体的行为规则进行建模,在静态或动态的环境中,直接处理主体之间持续互动的结果,分析和展现微观层面的个体行为如何导致宏观层面的系统演变与涌现。它能够将主体异质性、主体适应性、主体行为多样性、组分交互性等被传统社会科学研究方法简化、忽略或无力驾驭的重要因素,重新纳入到研究框架之中,能够更为逼真地模拟一个给定的对象系统。在对复杂社会系统的研究中,这种模拟研究能够获得一些通过传统的数据分析等方法无法获得的极具洞察力的结果。但需要强调的是,借助于社会模拟所得到的并不是“确定解”“最优控制方案”或“准确的预测”,而是能够揭示事件发生的条件与概率、事件发展的限度,以及多种可供选择的对策。

  (四)未来发展:社会模拟尚待解决的问题

  20余年来,社会模拟获得了长足的发展,在对复杂社会系统研究上显示出其独特的优势,但不论是面向变量的系统动力学模拟,还是面向对象的基于主体的建模与仿真,都还存在局限与不足之处,还有许多问题尚待解决。限于篇幅,仅就基于主体的建模与仿真方法进行探讨,当前面临的问题主要有以下几个方面。

  1.模型转换。与所有的计算机模拟一样,基于主体的建模与仿真需要从真实对象抽象出概念模型,再把概念模型转换成计算模型。对于社会科学研究者来说,最困难的或许是通过运用面向对象的语言(如Java,C++)编写程序,将概念模型转换成可在计算机上运行的仿真模型。在研究实践中,模型转换有两种办法:一是与计算机专家合作,根据特定的研究需要编写仿真程序;二是使用具有通用性的仿真平台,如Swarm、NetLogo、Repast等[45]。两种方式各有优缺点,前者可以使仿真模型更好地契合概念模型,但必须真正实现有效的跨学科合作,并且还需要付出相当的经济和时间成本;后者虽然几乎是拿来即用,但仿真平台的通用性毕竟是有限的,有些功能的实现并不尽如人意。这种难度导致研究常常受可获得的执行资源的制约,从而出现“拿着锤子找钉子的暴政”。

  2.非实证的参数设置。计算机中不同主体的行为模式的初始参数,一般是建模者根据既有知识或专家经验来设定的。例如“国家规划情景1”中把在核弹爆炸之初“寻找亲人”的主体设置为最多(死亡者除外),就是基于相关研究所获得的知识。以往建筑工程师们设计逃生通道时,往往倾向于假设火灾警报响起时,人们都会迅速涌向出口,但对压力下的人类行为的研究表明,很多人在遭遇突如其来的灾难时,会首先寻找他们的亲人。正是基于这类认识,建模者先对主体几种可能的行为模式的数量和比例进行估计,然后设置初始参数。显然,这种估计不可能完全准确。因而模型参数设置的不同会显著影响模拟的过程和结果,模拟出的过程和结果对于改进应急方案又至关重要。例如,如果是“寻找亲人”的主体最多,应急方案就需要考虑迅速恢复部分手机的通信服务,以使人们尽早确认亲人的安全状况,能够及早作出撤离的决定;而如果是采取逃离模式的主体最多,就要关注到哪些地方可能出现拥塞甚至踩踏。在很多情况下,建模者难以准确估计一些参数。对于这种情况,常用的方法是不断改变参数值,或者采用随机设定参数值的方式进行多次模拟,亦即假设各种态势,通过反复模拟来观察系统变化的过程和结果。因此,基于主体的建模与仿真目前更多的是用来发展理论、优化决策,而不能指望它作出精确的预测。

  3.模型验证。模型验证指判断模型输出与真实系统的一致性。对于基于主体的建模与仿真来说,其建模的自由度很大,建模者几乎可以模拟出“任何想要得到的结果”,因此对模型进行有效验证极为重要。然而,我们往往无法获取与模型输出相对应的真实系统的实证数据,这又使模型验证非常困难。当前,这种验证很大程度上是由专家作出判断,其结果不可避免地存在主观性。虽然也出现了敏感性分析等验证手段,但其有效性依然不尽如人意。所以,尽管基于主体的建模与仿真被认为是复杂社会系统研究中最有可能产生革命性进展的方法,但还没有完全得到主流研究者的广泛认同。

  4.大规模分布式多主体模拟。这种仿真程序的运行需要强大的计算资源来支持,例如“国家规划情景1”每次初始运行都需要由500个微处理器组成的计算集群进行一天半的运算。因此,研究者必须在模拟的效果和经济成本之间作出权衡,这无疑在很大程度上制约了这种研究方法在社会科学领域的推广普及。

  以上问题决定了基于主体的建模与仿真下一步发展的方向。对于克服模型转换的困难而言,进一步加强社会科学与计算机科学的合作,以及不断丰富和完善通用仿真平台是必由之路,这需要一个长期努力与持续积累的过程。至于模型的参数设置与模型的验证,可考虑能否将实证数据引入到建模之中,用实证数据来进行初始值设置和模型校验。大数据时代的到来,为这一设想提供了可能。互联网上已经生成了大量的数据资源,因此数据驱动型建模具有理论上的可行性。不过,要获取建模所需的、可靠的实证数据,还需要付出艰苦的努力。对于计算资源的瓶颈,云计算技术的发展将会起到至关重要的作用,它将减少大规模分布式模拟的经济投入。

  四、互联网社会科学实验:数字时代的因果验证

  (一)数字平台:传统实验方法的困境与线上实验室

  实验方法从近代开始运用于自然科学研究,使自然科学不再局限于对研究对象的表面观察与理论思辨,能够在经验事实与理论之间建立起广泛的

  联系,从而推动自然科学各学科取得了辉煌的成就。以实验来验证理论,或通过实验进行科学发现进而提炼出理论,成为占主导性地位的科学研究方法。社会科学家也将实验引入自己的研究领域,作为检验社会理论、验证因果关系的重要手段。在社会科学实证研究范式兴起之初,实验就与观察、比较并列为三大方法。然而,由于社会科学的研究对象与自然科学的研究对象存在本质上的差异,社会科学实验从一开始就面临自然科学实验所未有的困难。

  社会科学实验方法是高度控制干扰变量的前提下,对受试对象施加刺激,以考察刺激变量(自变量)导致结果变量(因变量)的变化情况,分析两者之间的关系,以检验理论假设或因果命题是否成立。一项实验是否科学有效,主要取决于四个方面:(1)条件控制力(能否有效控制干扰变量);(2)样本代表性(受试对象能否很好地代表研究对象);(3)环境仿真度(实验环境能否很好地模拟现实世界的情境);(4)可重复性(实验能否重复进行)。对于社会科学实验来说,以上四个条件形成了一个“不可能四边形”。在前互联网时代,社会科学实验主要有三种类型:实验室实验(Laboratory Experiments)、自然实验(Natural Experiments)、田野实验(Field Experi ments),这三种实验都无法同时满足上述四个条件。

  实验室实验将受试对象安排在可控的实验室中,因此能够对干扰变量进行高度控制。首先这种实验一般以招募方式获得受试对象,但受制于成本、受试者意愿等因素,受试对象的规模一般不大(如数百人),并且通常以大学生为主,因而样本的代表性往往存在问题;其次,有限的实验室条件不可能完整复制或高度仿真复杂的社会环境,一些尚未被研究人员认识到的情境影响因素可能被遗漏或改变;最后,如有需要,这种实验大多可以重复进行。可见,实验室实验满足四个条件中的两个。因为具有变量控制力,实验室实验可以保证实验的内在效度,但由于样本代表性与环境仿真度上存在缺陷,其外在效度常常存在疑问。

  自然实验不通过研究者人为地对受试对象施加刺激,而是以自然发生的社会事件作为刺激变量,通过随机抽样调查来考察其对在日常生活环境中的受试对象的特定结果变量的影响。这种实验对干扰变量的控制能力不足,但一般能够保证样本的代表性,环境仿真度也很好。至于实验的可重复性则无法保证。可见,自然实验也只能满足四个条件中的两个。自然实验对干扰变量缺乏控制,因此其内在效度不佳,但由于可以通过随机抽样获得受试者,因此外在效度一般较好。此外,自然实验的操作难度往往很大,误差也难以避免。

  田野试验在受试者的日常生活环境中进行,因此环境仿真度很高,但对干扰变量难以控制。由于这种实验往往成本高昂,因此一般只能在特定场域针对特定人群进行,样本只能代表特定群体。在理论上田野实验是可重复的,但受到成本因素的严重制约。可见,田野实验也只能满足四个条件中的两个。田野实验对干扰变量难以控制,因此其内在效度不稳定;由于样本只能代表特定群体,因此其外在效度有限。此外,田野实验技术复杂,避免实验偏差甚为困难[47]。

  除了上述“不可能四边形”问题之外,社会科学实验还存在其他一些难以克服的缺陷,如实验室环境在达到高度控制效果的同时,可能导致受试者的“霍桑效应”“约翰·亨利效应”等受试者偏差;实验室实验、田野实验由研究人员实施干预,可能会出现“期望效应”等主试者偏差。

  正是由于这些难以克服的局限性,导致实验方法在社会科学实证研究中一直处于“配角”地位。社会科学家早已深刻认识到通过社会调查与统计分析能够揭示社会现象的相关关系,但在验证因果关系上能力不足,而实验方法是因果验证最有力的手段,所以社会科学家一直在寻找改进社会科学实验的办法,互联网时代的到来为此提供了契机。

  互联网经过20余年的迅猛发展,如今已经在全球范围内形成超过40亿的用户规模。其中一些著名的网络平台(如Facebook、Twitter、微信、新浪微博)拥有数以亿计甚至十亿计的活跃用户。对社会科学实验来说,互联网造就了一个前所未有的规模庞大的受试者池。互联网突破时空限制的信息连通能力与Web2.0时代的大规模信息交互技术,也为社会科学实验的干预实施与结果反馈提供了强有力的支持。社会科学家敏锐地意识到互联网有可能成为一个社会科学实验的新平台,互联网社会科学实验由此诞生,并成为计算社会科学的一个重要组成部分。

  (二)实验方法:融网络信息技术于研究之中

  互联网社会科学实验是将互联网平台作为一种“新的实验室”开展随机实验。它是运用新兴的信息技术工具对传统实验方法进行改造、创新,并由此发展出一种新的方法。第一次真正意义上的互联网实验,当属克兰茨等1997年进行的一项名为“女性吸引力影响因素”的实验研究。该实验分别在互联网平台与传统的实验室里进行,两种实验方法所得出的结果具有高度的相似性,这证明了以互联网作为社会科学实验平台的可行性[48]。此后,不断有学者对之进行尝试与探索,至Web2.0技术普及,尤其是大型社交媒体平台崛起之后,互联网社会科学实验进入快速发展期,其方法和技术在持续改进中丰富和提高,出现一些极具创意的研究。对现有的研究成果进行分析总结,可发现互联网社会科学实验一般分为以下七个步骤。

  1.提出研究假设。互联网社会科学实验依然遵循传统实验方法的基本研究逻辑,也是理论先行。首先提出理论假设,然后选择实验平台,参照实验平台的特点设计实验方案。

  2.选择实验平台。在明确所要研究的问题之后,首先要选择合适的互联网平台。目前,可供选择的方式主要有两种:利用现有平台服务;与互联网平台合作[49]。利用现有平台指直接在现有的互联网服务平台上开展实验,如珍妮弗·多里亚克等直接利用在线商城进行的测量种族歧视的实验[50]。这种方式的优点是便捷、经济,其局限性则在于很多研究难以找到合适的现有服务,遇到这种情况,可考虑与互联网平台合作开展实验。其典型案例是邦德等与Facebook合作开展的名为“在线信息传播与线下投票行为”的大型实验。

  3.设计实验方案。在确定了实验平台之后,接下来进行的是实验方案的设计。互联网社会科学实验在这一步骤的最主要特点是,方案设计要充分考虑所采用的互联网平台的各种情况(如能够获取何种受试者,能达到多大受试者规模,能够以何种方式对受试者实施刺激),以确保方案的有效性与可行性。

  4.编写实验程序。传统实验中的基本操作过程,与受试者的沟通及施加刺激,以及实验数据的记录等都是由人工完成。互联网社会科学实验则尽量使实验过程自动化,将这些工作交由计算机处理。这就需要编写实施与管理实验的程序,包括干预程序(向受试者施加刺激)、控制程序(对实验发生的条件进行控制)、测量程序(记录实验数据)等,并将其嵌入到实验平台之中。由于编写程序对社会科学研究人员来说,往往是一件非常困难的事,一些著名的互联网平台专门提供了编程工具,如Amazon的Turkit、TurkServer Facebook的Planout等。

  5.受试者获取与分组。各种互联网平台的用户构成了一个“受试者池”,互联网社会科学实验从池中获取受试者,其方式主要有两种:线上招募与在线抓取。线上招募指通过互联网向用户发布招募信息,一般需要给予应募者一定的酬劳。在线抓取则是利用平台管理员的权限,按照抽样框架的要求,直接从用户中抓取受试者及其相关信息。对于拥有庞大用户规模的互联网平台来说,在线抓取方式通常能够获得数量可观的受试者,例如前文提及的“在线信息传播与线下投票行为”实验,邦德等在Facebook上抓取了6100万受试者,这种样本量是传统实验方法无法企及的。受试者规模的扩大,也为随机分组提供了极大的便利。受试者由计算机程序将其随机分入实验组或控制组。

  6.实验实施与管理。借助预先编写功能程序,互联网社会科学实验可以将流程安排、受试者监督、刺激的施加、数据的测量与记录等各种操作与管理任务,基本交由计算机自动完成(在抓取型实验中,研究人员不需要与受试者直接交流;在招募型实验中,研究人员需要对实验过程加以监控)。

  7.测量结果分析。互联网社会科学实验对测量结果的分析,大多还是沿用现有的统计方法。但相较于传统方法的实验,互联网社会科学实验所能获得的数据更为丰富。这是由于其能够将很多实验过程数据与细节数据实时记录下来,这类数据在传统实验中往往会被忽略或难以准确记录。例如,在戈德斯坦(Goldstein)等进行的一项关于网页广告的实验中,完整记录了受试者的鼠标移动轨迹,由此可将鼠标轨迹与广告位置的距离作为对广告关注程度的衡量指标。此外,一些学者已在尝试采用机器学习等新技术对结果数据进行分析处理。

  从上可见,互联网社会科学实验与传统社会科学实验的不同之处,主要在于其独特的实验平台与对多种新兴信息技术的运用。

  (三)比较视角:互联网社会科学实验的优势与不足

  从互联网社会科学实验的设计与实施过程可以发现,它与传统的社会科学实验既有相同之处,也有自己的独特性。这种新的实验方法的优势与缺陷,可以从以下几个决定实验质量的维度进行比较分析。

  1.样本代表性。借助于互联网这个新的平台,互联网社会科学实验能够拥有庞大的样本池,能获得的受试者规模可达数百万甚至数千万。并且随着互联网普及率的不断提升,其用户的人口统计学特征也在持续改善。在很多情况下,只要方案设计得当,就可能招募或抓取到代表性较好的受试者群体,或者按照已知的整体人口结构特征对各受试者群体进行加权处理。相较于实验室实验常采用的以大学生为主的便利样本与田野实验的特定样本,互联网社会科学实验样本代表性会更好。尤其是在大型互联网平台上采用抓取方式获得受试者,不仅样本总量庞大,而且样本代表性能够与自然实验以随机抽样方式获取的样本媲美。

  2.环境仿真度。实验环境具有双重性,受试者参与实验时,既是在其日常工作/生活的现实空间,又是在网络虚拟空间。前者意味着受试者处于自然实验、田野实验一样的“自然环境”;至于后者,研究人员只要对网络环境控制得当,就可以保证环境仿真度。

  3.条件控制力。由于互联网社会科学实验的受试者分布各处,其所处的现实环境无从知晓,因此研究人员虽然可以通过技术手段对受试者的网络环境予以高度控制(如屏蔽弹窗信息),但无法判断受试者现实空间中是否会在实验期间出现干扰,更无力控制,故而互联网社会科学实验的条件控制力接近于自然实验与田野实验,不如实验室实验。

  4.可重复性。一般情况下,互联网社会科学实验的可重复性较好,并且重复成本很低(编程等工作完成后可以无限制重复使用),因此可重复性总体上优于自然实验(极难重复)、田野实验(重复成本高),与实验室实验大致相当。

  5.主试者偏差。互联网社会科学实验的研究人员一般在实验过程中不与受试者直接交流,施加刺激、测量结果等工作也是通过计算机完成。这种受试者与计算机的人机互动实验方式,能够大大减少主试者偏差。当然,主试者偏差还可能在设计时就带入了实验方案,因此在主试者偏差上,互联网社会科学实验优于实验室实验与田野实验,但略逊于自然实验。

  6.受试者偏差。对于招募型实验来说,受试者知道自己在参加实验,但由于互联网的匿名性,出现“霍桑效应”等受试者偏差的可能性较小,因此招募型实验在避免受试者偏差上优于实验室实验与田野实验,但不及自然实验。对于抓取型实验来说则与自然实验相当。

  7.内在效度。对于传统实验而言,保证内在效度的关键在于能否高度控制干扰变量。对于互联网社会科学实验而言,高度控制干扰变量是非常困难的;此外影响内在效度的还有来自受试者方面的因素。这是因为,研究人员无法知晓受试者在实验过程中的状态,更不具备对受试者进行监督的条件,如果出现受试者分心(实验过程中被其他事分散了注意力)、受试者重复参与等情况,都会对实验的内在效度形成威胁。

  8.外在效度。保证外在效度的关键是样本的代表性与环境的仿真度,互联网社会科学实验在这两方面均可达到较高的水平,因此外在效度通常较高或很高。

  综上所述,互联网社会科学实验虽然不能完全解决“不可能四边形”问题,其最大缺陷是难以形成足够的条件控制力。但从总体上看,它能够满足四个条件中的三个,较传统实验方法已有较明显的提升。在避免主试者偏差与受试者偏差方面也具有优势。由于条件控制力较弱,以及独有的受试者不受监控的特点,其内在效度存在威胁,但外在效度一般较为理想(当然,互联网社会科学实验有一定的适用范围)。

  (四)发展方向:扬长补短与降低技术门槛

  除了在研究质量上有明显改善之处,互联网社会科学还有一些独特的优势,这主要表现在以下几个方面。

  1.研究成本与效率。由于互联网社会科学实验的大部分操作、测量、记录等工作借助于计算机完成,大大节省人力成本与时间成本,提高了研究效率。

  2.受试者范围。随着互联网普及率的持续提高,其用户群体的人口统计学特征会越来越接近全部人口的统计学特征,例如日本及北欧一些国家的普及率已达90%左右,除了婴幼儿外的几乎全部人口都可能成为抓取型实验的受试者。并且互联网具有跨国界、跨种族、跨文化的独特优势,这为跨文化研究提供了可能。

  3.异质性分析。以数量庞大的受试者群体进行的互联网社会科学实验,为异质性与多样性分析提供了条件,能够使研究较传统实验更为精细化。

  4.网络行为心理研究。用户网络行为、心理及其对社会的影响与治理对策等,已成为必须重视的新课题(如网络舆论引导、网络信息内容治理)。而传统实验方法对在线研究几乎无能为力,因此在线下心理与行为研究方面,它是传统实验方法的补充,对于在线心理与行为研究则有着不可替代的重要性[52]。

  为了使互联网社会科学实验这些优势更加充分地发挥出来,使之成为社会科学因果验证的有力手段,首先要不断探索改进完善的办法。如前文所述,互联网社会科学实验最为突出的两个缺陷,一是缺乏实验条件的控制力,二是无法对受试者进行监控,两者对实验的内在效度构成威胁。但这两个缺陷源于互联网实验固有的特性,因此不可能有直接的解决方法,只能寻找一些恰当可行的弥补措施。计算社会科学学者在具体研究实践中,正对此作出努力。

  对于实验条件控制力不足,目前主要的弥补手段有两个:一是利用大规模样本来稀释因干扰而产生的误差,这种方法基于这样一个逻辑假设,虽然干扰不可能避免,但毕竟只是少数受试者在实验过程中受到干扰,因此加大样本量可以在一定程度上减小总体上的误差;二是通过重复实验来检验内在效度,例如森托拉开展的“健康行为在线扩散”实验,为检验实验结果的可靠性,该实验重复了五次,将五次的结果进行比较,发现其具有较好的一致性。

  至于无法对受试者进行监控问题,实验研究人员也采取了多种策略来减小其对实验测量的影响。如针对受试者可能重复参与,研究人员采取的策略是采集每个受试者的IP地址信息,在实验程序中设定为只接受每个IP地址的一次任务提交。虽然如果同一受试者在不同地点(如一次在家中,一次在工作单位)参与实验,或者运营商采用的是流动IP,这一策略就会失效,但它毕竟能够在很大程度上减少重复参与的受试者数量。又如,针对受试者分心问题,研究人员在实验过程中可以插入一次“注意力测验”,如给出一道简单的数学题,要求受试者快速答题,以判断其注意力状况,然后剔除注意力分散的受试者的实验数据。再如,针对受试者中途流失问题,有研究人员在正式实验开始之前进行“预热试验”,将那些容易退出的受试者预先排除,以减少在正式实验过程中受试者的流失[54]。虽然这些措施并不能彻底解决问题,但可以使实验质量获得一定程度上的改善,或者能够较为准确地判断实验结果的可靠性。

  除了实验方法上的改进外,要使互联网社会科学实验能够推广开来,还有一项重要的工作是设法克服互联网社会科学实验的技术门槛。由于互联网社会科学实验融合了多种计算机与信息技术,社会科学研究人员要开展这种实验,必须具备相关的计算机与信息技术基础知识,这需要社会科学研究人员拓展知识结构,掌握必备的技能,以实现真正有效的跨学科合作。此外,需要针对各种研究的特点,不断丰富和完善实验编程等技术工具,可以先从大型的、适合开展社会科学实验的互联网平台入手,以这些平台的特点与开展实验的共性要求为出发点,研发更多的、更具通用性与弹性的技术工具,这能够在一定程度上降低互联网社会科学实验的技术门槛。最后,与社会科学数据计算研究一样,互联网社会科学实验也受到学术伦理的限制。其最主要的伦理准则是不能对受试者造成伤害,这要求计算社会科学学者在设计实验方案时要慎重考量。

  五、创新完善:计算社会科学研究方法的未来之路

  计算社会科学的产生具有双重动因,一是社会科学家对实证研究方法的持续探索,二是计算机与信息技术的进步。自19世纪实证主义研究范式兴起以来,社会科学家一直致力于研究方法的改进,不断丰富和完善技术实现的手段和工具,发展出了内涵丰富的方法体系。但迄今为止,在社会事实材料的获取能力、分析研究、因果验证手段上仍然存在严重局限。随着计算机科学和信息技术的不断发展,社会科学家将之运用于对复杂社会系统的研究,从而在20世纪90年代产生了计算社会科学。经过20余年的发展,计算社会科学已经形成了社会数据计算、社会模拟、互联网社会科学实验三种新的研究方法。

  社会数据计算以网络时代产生的海量的、多种类的关于人类社会的新型信息资料,以及数据化的传统信息资料为基础,以先进的信息分析处理技术为工具,致力于为社会科学研究开辟新的路径。它在大大拓宽研究视野与范围的同时,还推动社会科学研究走向精细化。社会数据计算所面对的各种新型数据与传统数据在本质与特征上有很大的不同,研究者必须面对新型数据的不完整性、不具代表性、质量的不均衡性等问题。当前,国内外学界正对此进行积极探索,以数据互补、样本修正与交叉验证等方法,克服新型数据在社会科学研究中的缺陷,力图从新型数据中挖掘出更大的价值。社会数据计算理论与数据并重,其研究范式是理论数据双向驱动。虽然当前还面临重重困难和制约,但依然显示出巨大的发展前景。

  社会模拟将计算机仿真技术引入社会科学研究,致力于创新出能够适应复杂社会系统的研究手段,其中最具代表性也最具发展前景的是基于主体的建模与仿真。基于主体的建模与仿真方法可以将主体异质性、主体适应性、主体行为多样性、因素交互性等被传统社会科学研究方法简化、忽略或无力驾驭的重要因素,重新纳入到研究框架之中。它以一种自下而上的方式,基于个体的行为规则进行建模,在静态或动态的环境中,直接处理主体之间持续互动的结果,分析和展现微观层面的个体行为如何导致宏观层面的系统演变与涌现。在对复杂社会系统的研究中,这种模拟研究能够获得一些通过传统的数据分析等方法无法获得的极具洞察力的结果。基于主体的建模与仿真仍存在局限与不足之处,当前尚待解决的问题主要有模型转换、非实证的参数设置、模型验证,以及大规模分布式多主体模拟的算力支持等。

  互联网社会科学实验运用新兴的信息技术工具对传统实验方法进行改造、创新,将互联网平台作为一种“新的实验室”开展随机实验。它与传统的社会科学实验既有相同之处,也有自己的独特性。从样本代表性、环境仿真度、条件控制力、可重复性、主试者偏差、受试者偏差、内在效度、外在效度等多个维度进行综合考察可以发现,作为一种新的因果验证方法,互联网社会科学实验虽非完美,但在总体上可以提升实验研究的质量水平,并且具有节省人力成本与时间成本,提高研究效率等优势;此外,在线下心理与行为研究方面,它是传统实验方法的补充,对于在线心理与行为研究则有着不可替代的重要性。互联网社会科学实验有较高的技术门槛,相关的技术工具还有待丰富和完善,其运用和推广还存在不少障碍。

  综上所述,计算社会科学的三大研究方法,已经在社会事实材料的获取与分析、复杂社会系统的研究方法与技术实现手段、因果性验证方面取得了一定的突破。未来,致力于计算社会科学的学者还需要不懈探索,尽力完善自身的知识结构,在真正掌握各种新兴信息通信技术工具的基础上,通过锐意创新来完善社会数据计算、社会模拟与互联网社会科学实验的方法体系。此外,还需要思考如何将三种方法在研究中结合起来,并注重与传统研究方法互补长短。