APP推广合作
联系“鸟哥笔记小乔”
一文详解推荐系统的基石:大数据
2020-03-25 20:04:00

导读:本系列文章将从最简单的概念开始,逐步讲解推荐系统的发展历程和最新实践。以产品经理的视角,阐述推荐系统涉及的算法,技术和架构。本章将系统性地介绍推荐系统的基石之一:大数据

image-20200322202621980

大数据是数据智能时代的“铁公基”,是一系列计算和存储的基础设施。推荐系统也是建立在大数据的基础之上的,大量的数据挖掘和模型训练都离不开大数据。

大数据这个名词起的很好,对于非技术人员来说也能get到大的含义:数据量大,算力强大。但是这强大的能力是怎么来的?大数据生态体系架构是怎么分工的?不具体做过的同学并不清楚。今天就继续站在产品经理的角度深入浅出地来讲述这些问题。其实不一定是产品经理,对大数据感兴趣的同学都可以看看。本文比较长,如果时间不够,建议先mark下。

一、大数据的诞生与分布式

在大数据技术诞生之前,数据的存储和处理大半壁江山都是Oracle和MySql和等数据库软件的。这些传统数据库的文件系统是单机的,也就是说,数据只能在一台机器上跑。它们在处理成TB(1024GB)甚至上PB(1024TB)级别数据时就会特别吃力。

第一个解决了这个问题的公司是谷歌。谷歌解决这个问题的思路就是分布式。谷歌分别于2003-2004年发表了三篇重量级的论文,奠定了大数据的基础。简单的说,谷歌通过论文公布了以下三个工具如何创造:

  1. 分布式文件系统:Google File System

  2. 分布式并行计算框架:Google MapReduce

  3. 分布式数据库:BigTable

这个就是大数据技术的开始。从谷歌的这个原点开始,大数据经过多年发展,形成了今天的全貌。可以用以下三个分类来去解构整个大数据生态:

  1. 分布式存储:把文件切成多份,分布地存储到多台机器上。常用的组件有:HDFS,HBase等。

  2. 分布式计算:把数据计算的任务切分成多个,分配到多台机器上计算。常用的组件有:MapReduce,Spark,Storm,Flink等。

  3. 分布式工具:数据辅助类工具,资源调度管理工具等。常见的组件有:YARN,Hive,Flume,Sqoop,Elastic Search,ZooKeeper等。

大数据整个生态体系非常庞大,相关的产品不胜枚举,让人看着眼花缭乱,有种物种大爆发的感觉。但是也并非无迹可寻。我们理解大数据生态,从这三个方面去理解就会轻松很多。本文也是严格按照这个方式来讲述。

image-20200322204059577

二、本文讲述需要用的数据表

鉴于大数据生态过于庞大复杂,为了使得文章更加浅显易懂,本文不对技术概念做过多的描述,而是直接到操作层面,以图示的方式讲解。因为要讲述的是数据系统,我这里建一张数据表USER,用这张数据表在各个系统中处理过程来给大家讲述大数据各个组件的工作原理和机制。image-20200322201905179

三、Hadoop

整个互联网技术生态圈中,谷歌是超级绩优生。每次发表论文,都会引起众多人员前来“抄作业”。Hadoop之父Doug Cutting和他的团队就是其中一个。他花了两年的业余时间,照着谷歌的论文实现了一个分布式数据系统,并用自己儿子的大象毛绒玩具的名字给这个系统命名为Hadoop。Hadoop的Logo也是个头大象。

image-20200321100917874

后来到了2006年,Hadoop被引入Apache基金会,成为一个开源的顶级项目。随着Hadoop的不断发展,在Hadoop项目中,诞生了HBase,Hive,Pig,Zookeeper等子项目,并先后被Apache基金会将其独立升级成为顶级项目。同时,Apache基金会也不断兼收并蓄其他大数据项目,基本把绝大多数优秀的大数据项目都收入麾下,大有天下武功出少林的味道。大数据各种开源组件中,Apache旗下的才是少林正宗。

闲话不多说。我们来讲Hadoop。

现在的Hadoop主要分三个部分:

  1. 分布式存储:HDFS(Hadoop Distributed File System),一个高可靠、高吞吐量的分布式文件系统,实现海量数据存储。

  2. 分布式计算:MapReduce,一个分布式离线并行计算计算框架,实现海量计算。

  3. 分布式工具:YARN,一个集群资源调度管理的框架,实现硬件资源的调配。

四、图解分布式

这里先具象的解释下,什么是大数据的分布式长什么样?

我们在安装Hadoop的时候,要把同一个Hadoop的软件安装包,安装在三台以上不同的机器上。安装好后,我们就可以得到一个Hadoop分布式集群

如下图,我们将Hadoop的三个组件,安装在集群每一台机器上,这个集群有七台机器。每一台机器叫一个节点。这七个节点中,要选出一个做老大,我们有什么事情先找这个老大,这个就是主节点。因为主节点很重要,它要是挂了,整个集群就挂了。所以一般主节点配置两台,一台备份。其他五个节点叫做从节点。在Hadoop中,主节点命名为Master,从节点为Slave。

image-20200322201251333

五、分布式文件系统:HDFS

下面将Hadoop的第一个组件HDFS。HDFS作为分布式的文件系统,它是以文本的方式来保存数据的,也就是说,数据一般会跟我们的TXT文件那样。一个文件会被按照设定,切分成不同的数据块,然后每个数据块会被复制成多份,然后分布式地存到不同的节点中。HDFS把集群节点分成两类:NameNode和DataNode。

  • NameNode可以理解成数据目录,它记录了每个数据块在哪台机器的哪个位置。这个功能由主节点承担。

  • DataNode顾名思义就是存数据的节点了。

下面以USER数据表为例,举例说明HDFS的运作过程。实际的系统中,因为NameNode负荷比较重,会设置一个SecondaryNameNode来协助NameNode的工作(注意是协助,而不是备份)。

image-20200322205737453

上图中:

  1. HDFS先把深蓝色的文本数据切分成三份。每份数据按照系统设定,如64MB或128MB一块。

  2. 将三份数据块复制成三份,这样就有九份数据。

  3. 把上一步得到的九份数据划分到不同的DataNode中,并建好目录。

  4. 按照储存分配,把各个数据块保存。

HDFS优点:数据容量大,是大数据最主要的数据存储方式。很多其他组件都是建立在HDFS的基础上,应用非常广泛。

HDFS的缺点:它是个文件系统,而不是数据库系统,不能像关系数据库系统那样建立索引等工具提升处理速度和定位到数据位置。因为数据记录的形式是一行一行的字符串,没办法定位,不支持对数据的直接修改。

六、分布式离线计算引擎:MapReduce

MapReduce是专门负责分布式计算的,它是是一个组合词,可以分成两个部分:Map和Reduce。

简单的说,Map就是把要计算的数据分解成多个计算任务,而Reduce则是Map过程得到的结果进行汇总。假设现在我们要计算在USER表中,男女各有多少人。MapReduce计算详细过程如下:

image-20200322210811003

上图中:

  1. Splitting阶段,把数据分成三块。Splitting一般就是在HDFS存储时的切分的基础上再次切分。

  2. Mapper则为每个切分的数据块建一个Mapping任务,逐条地计算每条数据的结果,然后在磁盘中存起来。

  3. Shuffling也就是将Mapping阶段的结果进行分拣,shuffle任务要等Mapping完全完成后才能开展。

  4. Reducing就是将分拣好的数据,进行汇总。

通过这种方式,MapReduce获得了强大的运算能力。

MapReduce优点:计算能力强大,运算耗费成本低廉,在运算能力一般的机器上也能运行。

MapReduce缺点:它诞生的年代,内存还很贵,在计算的过程中,中间结果要不断存入磁盘中,以减少内存的压力,但是这样导致了MapReduce运算速度比较慢。另外就是代码不简洁,学习曲线比较陡,后面在HIVE部分会讲述。

七、资源管理调度系统:YARN

YARN的全称是Yet Another Resource Negotiator,直译就是另一种资源协调者。

看名字就知道,他是Hadoop中其中一种资源调度器。它的最重要的组件是ResourceManager,通过这个组件,YARN可以为我们的MapReduce任务进行资源分配,分配的资源就是一个个的计算容器,每个计算的任务就在这个容器中跑。由于优秀,后来YARN进一步被发扬光大,成了Hadoop以外的很多大数据组件的资源调度框架。

八、数据分析和数据仓库工具:HIVE

在MapReduce的中,处理数据作业的程序是要通过JAVA来实现的。但是JAVA在写MapReduce的过程并不简洁。像我们前面提到的统计数据表中男女人数这个简单的操作,需要严格按照Input到Reducing这五步来实现,代码一般长达上百行。

但是统计这个数据结果,对于SQL来说,就是一句话的事:SELECT sex,COUNT(1) FROM USER GROUP BY sex。

为了不再写又长又烦的JAVA,Hive应运而生。Hive组件就主要做的事情是,将SQL代码转译成MapReduce。然后放入YARN构建的容器里面跑出结果。

这样,我们要统计USER表中的男女人数的时候,就不用写JAVA实现也能调动MapReduce了。这里我们画图说明一下:

image-20200322202021174

另外,Hive除了转译SQL的功能外,它也可以用来建数据库和数据表。一个数据库拥有的能力它都有,而且还可以处理大量的数据。所以一般还会将Hive用来建数据仓库。数据仓库的主要功能,就是把历史数据都存进去,可以反复地统计计算使用。数据仓库最主要的特征就是数据量特别大。

由于它是构建于HADOOP的基础上,Hive可计算的容量大,运算能力强,但是速度不快。Hive也不能直接修改数据。对Hive进行数据的修改操作非常费时。

最后,介绍一下Hive和MySql的区别:

  • MySql是关系型数据库,它适合用于联机事务数据管理。如用户注册,修改昵称等数据操作,可以让用户对数据进行实时快速地增删改查。

  • HIVE是建立的HADOOP基础上的数据仓库工具。它适合计算大容量数据的场景,因为计算速度比较慢,不能用来进行实时响应的事务性场景。

image-20200321145000729

九、DAG计算引擎:SPARK

Spark是分布式计算引擎,是大数据生态体系中的一个速度快,功能强大的一个组件。Spark整个框架非常庞大,提供能非常丰富的离线计算和流式计算能力。

本小节先介绍Spark的离线计算功能。

得益于摩尔定律下的硬件基础设施的升级,内存变得越来越便宜,与MapReduce主要把中间结果不断写入磁盘不同,Spark主要把数据放在内存中计算。这样Spark在速度上比起MapReduce有上千倍的提升。

当内存不足的时候,Spark也会需要将中间结果存入磁盘。但是在这种情况下,Spark在速度上比起MapReduce也有上百倍的提升。因为Spark提供了RDD,DataFrame,DataSet这样的数据表工具,并为这些数据表提供了一系列高效计算的算子,有效提升了速度。多个算子叠加就成了一个DAG(Directed Acyclic Graph),所以Spark也被成为DAG计算引擎。

下面介绍Spark的计算流程。

因为RDD,DataFrame,DataSet都是类似关系数据库的数据表,流程机制都差不多,这里选用DataFrame来解释。当Spark处理USER表的数据时,会经过以下过程:

image-20200322195937207

上图中:

  1. 数据读取:数据读取可以从文本,HDFS,HIVE,JSON等多种格式中读取。

  2. 转换成DataFrame:把读取的数据表转换成Spark的内置格式DataFrame,并上图中命名为USER_DF。有了DataFrame就可以直接对它进行算子操作。上图中用到的groupby()和count()都是算子。算子的作用就是执行某类计算的操作。

  3. groupby算子运算:groupby就是分组的算子。它实现了按照男女对数据进行了分组,得到一个分组后的新DataFrame,上图中命名为GROUPBY_DF。每次算子运算后,都得到一个新的DataFrame。

  4. count算子运算:从上一步的结果中,再次进行个数计算,得出最后结果RESULT_DF。

多个算子混合后,就形成了一个DAG,上面的操作,会形成以下的DAG。Spark通过构建DAG,然后下发给从节点计算。

image-20200322200412124

同时这个计算过程也是像MapReduce那样,将计算任务分解成Map和Reduce两个阶段,分布式地在多台机器中计算,这里不再描述。

十、离线计算和流式计算

MapReduce和Spark都是离线计算的代表。离线计算就是计算前已经有了所有需要计算的数据,且每次计算都是所有的数据都参与的运算。因为每次都是一整批数据做计算,所以离线计算一般又叫批量计算。

但是日常的事务中,有很多场景是需要不断实时的更新数据的。

假设我们的USER表,现在因为有个新用户注册,多了一条用户数据“蔡九,女,27”。离线计算就要把新数据汇总,然后再进行计算:

image-20200322222130936

增加一条用户日志,就要对全部的进行计算,在数据量非常庞大的时候,这根本是不可能的事情。所以我们还要另外一种计算方式,那就是流式计算。流式计算因其实时性,又常被叫做在线计算和实时计算。

以下是流式计算的过程,同样的新增数据,流失计算只要对新增数据进行计算,然后汇总更新:

image-20200322120556209

流式计算引擎有:SPARK streaming,Storm和Flink。它们都可以提供流式计算的服务,但是有些不同。

  • SPARK streaming是使用微批的方式计算流数据。微批就是小批量的意思。SPARK streaming并不是一条一条地计算新数据流,而且小批量的计算。比如几分钟算一次,或者几十条算一次。像割韭菜那样,等长够高了,再收割,一茬又一茬。

  • Storm和Flink就是来一条计算一条地处理数据流了。像流水线作业那样,不断地逐个逐个处理。值得一提的是,最近两年Flink很火,在推荐系统上被广泛用来计算如用户画像等实时性较高的数据。

十一、分布式结构化存储系统:HBASE

前面说到谷歌三篇关于大数据的论文,这里再补充一下它们后来的演变结果:

  1. 分布式文件系统:Google File System,演变成Hadoop的HDFS。

  2. 分布式并行计算框架:Google MapReduce,演变成Hadoop的MapReduce。

  3. 分布式数据库:BigTable,演变成了另外一个大名鼎鼎的HBase。

这就是HBase的诞生。

HBase是一个NoSql数据库。它在整个大数据生态中的定位是对数据进行实时的操作:查询,更新,删除和插入。前面说到HIVE是能处理大量数据,但是速度慢且不能对数据进行修改,而MySql等传统数据库响应快但是运算能力不足。HBase的出现,就是为了解决这些问题。

NoSql数据库的意思就是不支持SQL语句的数据库。HBase有以下特征:

  • HBase最终存储是基于HDFS的,有存储海量数据能力。

  • HBase的增删改查是分布式的,也就是一次修改,是多个节点服务器的修改。

  • HBase的表结构跟关系型数据库是不一样的。

  • HBase有很快的读取响应速度。

为了方便理解,我们直接画图看HBase怎么工作。如何把我们的USER数据表放入HBase后,它是长成这样子的:

image-20200322183623884

其中:

  • rowkey是行键,是每行数据的编号。

  • Users_info叫做列族,是保存数据的表头。

  • HBASE中,每个数据都被保存成为key:value的键值对,每个键值对叫做cell(单元格)。如name:张三就是一个cell。

MySql中,修改数据就会覆盖掉旧数据。但是在HBase中,同个键值对可以保留多个数据版本。这个版本会以时间戳的形式来标记。如张三,有一天改名叫张三丰了,它并不会覆盖掉原有的张三,而是两个版本都保存起来。如下如所示:

image-20200322192218696HBase有强大的读取和增删改查能力,加上可以保存不同时间的数据版本,在推荐系统中,用户画像的结果数据,离线召回,近线召回等数据,都是保存在HBase中。另外,HBase可以做到快速响应,推荐系统中需要快速读取的数据,都可以存在HBase中。

十二、数据采集

大数据的诞生,并不是取代掉传统的关系型数据库,而是变成一种补充。传统数据库存不下的数据,大数据来存。传统数据库算不了的数据,大数据来算。大数据系统只是把现有系统的数据采集到大数据中,做存储和计算,对已有的业务流程和系统架构并没有什么影响。

将数据采集到大数据,一般用到两个工具:Sqoop,Flume。其实不同公司使用的数据采集工具不一样,这里只是简单的介绍。

关系型数据是我们最常见的一种数据。Sqoop是关系型数据库和大数据之间数据流动的一个桥梁。它可以用来将MySql和Oracle的数据导入HDFS,HBASE中。或者将大数据中的数据导入MySql或Oracle。

image-20200322160736817

另外一种常见的数据是来自于日志系统的数据。在生产环境中,我们的搜索,推荐,广告服务每时每刻都在产生大量的流式日志。这些日志数据格式不一,形态各异。他们都是非结构数据。

这些数据一般都是以文本的方式保存在各个业务系统中。对于推荐系统而言,最重要用户的埋点行为数据就存在日志中。而对于这些非关系型数据,我们需要采集到大数据的时候,就需要用到Flume。Flume可以采集批量数据也可以采集流数据。

这两个工具知道作用即可,不用深究太多。

十三、分布式消息队列:KAFKA

采用Sqoop或者Flume做数据采集的时候,可以说是一对一的直采专线服务模式。我们把生产数据的系统叫生产者,消费数据的系统叫消费者。随着系统的发展,一般生产者和消费者都会越来越多,全部一对一直采,连接数就会指数上升,且难以维护。如果生产者的数据没能及时被消费者接收或者丢包,数据就会丢失。

为了解决这些问题,Kafka被创造了出来。

通过Kafka,生产者只要把数据打包好,标记好Topic,扔到Kafka的消息队列上就可以了。而消费者,只要做的事情就是订阅该生产者的Topic。当有新的数据到达时,Kafka就会告知消费者去取。

数据会被暂时保存在Kafka的硬盘中一段时间(一般7天),消费者随时可以来取。被保存的一系列数据块,就是一个个按时间排序的消息队列。同样的,Kakfa也是分布式的,它会被安装在多个节点中,数据也会被保存在多个节点中。

image-20200322231036295

十四、Lambda架构

能看到这里,你已经很不容易了。前面已经将本文需要介绍的大数据组件讲完了。

大数据实在是太庞大了,而且各司其职,分工得特别细。这么多大数据的框架,有离线计算和流式计算,不同的分布式存储和不同的分布式工具,这些框架是怎么构建成一个大数据系统的呢?

这就要介绍大数据的Lambda架构。

Lambda架构算大数据系统里面举足轻重的架构,数据通道分为两条分支:实时流和离线。实时流依照流式架构,保障了其实时性,而离线则以批处理方式为主,保障了最终一致性。适用于同时存在实时和离线需求的情况。抽象掉所有的框架,可以把Lambda架构简化成如下方式:

image-20200322171500905推荐系统是个存储和算力消耗的大户,它需要离线计算,对时间不敏感的数据进行大批量的计算。也需要实时流式计算,对用户画像,物品画像数据进行实时的更新。把本章中说到的大数据的各个框架组件按照Lambda架构的方式组建后,我们可以得到下图。

image-20200322175329645

实际的情况比上图还要更复杂些,但是对于本文来说,借用机器学习的术语,再复杂就要“过拟合”了,适当的DropOut可以防止过拟合。扔掉一些,可能是更好的。

总结

千言万语,汇总成一句话:大数据是由分布式存储,分布式计算和辅助性组件构成一个庞大的数据技术生态体系。它有几个要知识点:

  1. 要理解分布式存储的机制。因为数据量大,数据的存储的最终载体是最简单文本数据,没有很多花里胡哨的东西。这些文本数据被切割成多个数据块,分布式地保存在不同的数据节点中。

  2. 要理解分布式计算中的MapReduce机制。理解HIVE的工作机制。理解什么是离线计算,什么是流式计算。

  3. 最后,可以的话,记住Lambda架构。


写在最后的话

大数据太多知识点了,受篇幅所限,这次只选择性地介绍推荐系统需要用到的大数据开源类组件。这个生态体系还在不断的发展中,我也还在路上。不足之处,还请各路高手不吝指教。

-END-

鸟哥笔记,广告营销,文案发烧友,营销,文案

菠萝王子
分享到朋友圈
收藏
收藏
评分

综合评分:

我的评分

测一测

结合本文,以下对于HDFS的描述正确的是:
正确
正确
正确
正确
已提交
Xinstall 15天会员特权
Xinstall是专业的数据分析服务商,帮企业追踪渠道安装来源、裂变拉新统计、广告流量指导等,广泛应用于广告效果统计、APP地推与CPS/CPA归属统计等方面。
20羽毛
立即兑换
一书一课30天会员体验卡
领30天VIP会员,110+门职场大课,250+本精读好书免费学!助你提升职场力!
20羽毛
立即兑换
顺丰同城急送全国通用20元优惠券
顺丰同城急送是顺丰推出的平均1小时送全城的即时快送服务,专业安全,准时送达!
30羽毛
立即兑换
菠萝王子
菠萝王子
发表文章3
来自产品经理的推荐系统,人工智能,大数据知识分享
确认要消耗 0羽毛购买
一文详解推荐系统的基石:大数据吗?
考虑一下
很遗憾,羽毛不足
我知道了

我们致力于提供一个高质量内容的交流平台。为落实国家互联网信息办公室“依法管网、依法办网、依法上网”的要求,为完善跟帖评论自律管理,为了保护用户创造的内容、维护开放、真实、专业的平台氛围,我们团队将依据本公约中的条款对注册用户和发布在本平台的内容进行管理。平台鼓励用户创作、发布优质内容,同时也将采取必要措施管理违法、侵权或有其他不良影响的网络信息。


一、根据《网络信息内容生态治理规定》《中华人民共和国未成年人保护法》等法律法规,对以下违法、不良信息或存在危害的行为进行处理。
1. 违反法律法规的信息,主要表现为:
    1)反对宪法所确定的基本原则;
    2)危害国家安全,泄露国家秘密,颠覆国家政权,破坏国家统一,损害国家荣誉和利益;
    3)侮辱、滥用英烈形象,歪曲、丑化、亵渎、否定英雄烈士事迹和精神,以侮辱、诽谤或者其他方式侵害英雄烈士的姓名、肖像、名誉、荣誉;
    4)宣扬恐怖主义、极端主义或者煽动实施恐怖活动、极端主义活动;
    5)煽动民族仇恨、民族歧视,破坏民族团结;
    6)破坏国家宗教政策,宣扬邪教和封建迷信;
    7)散布谣言,扰乱社会秩序,破坏社会稳定;
    8)宣扬淫秽、色情、赌博、暴力、凶杀、恐怖或者教唆犯罪;
    9)煽动非法集会、结社、游行、示威、聚众扰乱社会秩序;
    10)侮辱或者诽谤他人,侵害他人名誉、隐私和其他合法权益;
    11)通过网络以文字、图片、音视频等形式,对未成年人实施侮辱、诽谤、威胁或者恶意损害未成年人形象进行网络欺凌的;
    12)危害未成年人身心健康的;
    13)含有法律、行政法规禁止的其他内容;


2. 不友善:不尊重用户及其所贡献内容的信息或行为。主要表现为:
    1)轻蔑:贬低、轻视他人及其劳动成果;
    2)诽谤:捏造、散布虚假事实,损害他人名誉;
    3)嘲讽:以比喻、夸张、侮辱性的手法对他人或其行为进行揭露或描述,以此来激怒他人;
    4)挑衅:以不友好的方式激怒他人,意图使对方对自己的言论作出回应,蓄意制造事端;
    5)羞辱:贬低他人的能力、行为、生理或身份特征,让对方难堪;
    6)谩骂:以不文明的语言对他人进行负面评价;
    7)歧视:煽动人群歧视、地域歧视等,针对他人的民族、种族、宗教、性取向、性别、年龄、地域、生理特征等身份或者归类的攻击;
    8)威胁:许诺以不良的后果来迫使他人服从自己的意志;


3. 发布垃圾广告信息:以推广曝光为目的,发布影响用户体验、扰乱本网站秩序的内容,或进行相关行为。主要表现为:
    1)多次发布包含售卖产品、提供服务、宣传推广内容的垃圾广告。包括但不限于以下几种形式:
    2)单个帐号多次发布包含垃圾广告的内容;
    3)多个广告帐号互相配合发布、传播包含垃圾广告的内容;
    4)多次发布包含欺骗性外链的内容,如未注明的淘宝客链接、跳转网站等,诱骗用户点击链接
    5)发布大量包含推广链接、产品、品牌等内容获取搜索引擎中的不正当曝光;
    6)购买或出售帐号之间虚假地互动,发布干扰网站秩序的推广内容及相关交易。
    7)发布包含欺骗性的恶意营销内容,如通过伪造经历、冒充他人等方式进行恶意营销;
    8)使用特殊符号、图片等方式规避垃圾广告内容审核的广告内容。


4. 色情低俗信息,主要表现为:
    1)包含自己或他人性经验的细节描述或露骨的感受描述;
    2)涉及色情段子、两性笑话的低俗内容;
    3)配图、头图中包含庸俗或挑逗性图片的内容;
    4)带有性暗示、性挑逗等易使人产生性联想;
    5)展现血腥、惊悚、残忍等致人身心不适;
    6)炒作绯闻、丑闻、劣迹等;
    7)宣扬低俗、庸俗、媚俗内容。


5. 不实信息,主要表现为:
    1)可能存在事实性错误或者造谣等内容;
    2)存在事实夸大、伪造虚假经历等误导他人的内容;
    3)伪造身份、冒充他人,通过头像、用户名等个人信息暗示自己具有特定身份,或与特定机构或个人存在关联。


6. 传播封建迷信,主要表现为:
    1)找人算命、测字、占卜、解梦、化解厄运、使用迷信方式治病;
    2)求推荐算命看相大师;
    3)针对具体风水等问题进行求助或咨询;
    4)问自己或他人的八字、六爻、星盘、手相、面相、五行缺失,包括通过占卜方法问婚姻、前程、运势,东西宠物丢了能不能找回、取名改名等;


7. 文章标题党,主要表现为:
    1)以各种夸张、猎奇、不合常理的表现手法等行为来诱导用户;
    2)内容与标题之间存在严重不实或者原意扭曲;
    3)使用夸张标题,内容与标题严重不符的。


8.「饭圈」乱象行为,主要表现为:
    1)诱导未成年人应援集资、高额消费、投票打榜
    2)粉丝互撕谩骂、拉踩引战、造谣攻击、人肉搜索、侵犯隐私
    3)鼓动「饭圈」粉丝攀比炫富、奢靡享乐等行为
    4)以号召粉丝、雇用网络水军、「养号」形式刷量控评等行为
    5)通过「蹭热点」、制造话题等形式干扰舆论,影响传播秩序


9. 其他危害行为或内容,主要表现为:
    1)可能引发未成年人模仿不安全行为和违反社会公德行为、诱导未成年人不良嗜好影响未成年人身心健康的;
    2)不当评述自然灾害、重大事故等灾难的;
    3)美化、粉饰侵略战争行为的;
    4)法律、行政法规禁止,或可能对网络生态造成不良影响的其他内容。


二、违规处罚
本网站通过主动发现和接受用户举报两种方式收集违规行为信息。所有有意的降低内容质量、伤害平台氛围及欺凌未成年人或危害未成年人身心健康的行为都是不能容忍的。
当一个用户发布违规内容时,本网站将依据相关用户违规情节严重程度,对帐号进行禁言 1 天、7 天、15 天直至永久禁言或封停账号的处罚。当涉及欺凌未成年人、危害未成年人身心健康、通过作弊手段注册、使用帐号,或者滥用多个帐号发布违规内容时,本网站将加重处罚。


三、申诉
随着平台管理经验的不断丰富,本网站出于维护本网站氛围和秩序的目的,将不断完善本公约。
如果本网站用户对本网站基于本公约规定做出的处理有异议,可以通过「建议反馈」功能向本网站进行反馈。
(规则的最终解释权归属本网站所有)

我知道了
恭喜你~答对了
+5羽毛
下一次认真读哦
成功推荐给其他人
+ 10羽毛
评论成功且进入审核!审核通过后,您将获得10羽毛的奖励。分享本文章给好友阅读最高再得15羽毛~
(羽毛可至 "羽毛精选" 兑换礼品)
好友微信扫一扫
复制链接