返回第250章 光的尽头(1 / 2)我当D级人员那些年首页

方法没问题,接下来需要的就是大量的时间和一些运气。如果经过的数据里有明确的时间信息,就能省很多事。反之,052就得耗费脑力去判断时间点,有简单的,有困难的,所需的运气和努力,其占比大概是五五开。

好消息是,我们也算是新来的数据,周边除了某些经久流传的老片段,附近的数据基本来自2019年往后,毕竟平时可不会大街小巷都戴着口罩。

虽然离得比较近,但短短几年的数据量,也可以用浩如烟海来形容,我们要到达目的地,终归是有一条漫长的路。

在这期间,我们又遇到了049,他也是在“闲逛”中发现了数据流向的异常,以为我这里是核心,然后找了过来。我暗暗期待,是不是大家过会都能找来,但直到最后,也就是我们三个人。

也很好理解,在数据里发现我留下的痕迹,本来就是个小概率事件。而且越往前走,越能感觉到数据流速的增大,就像逆流而上时,遇到了瀑布。

我倒还好,有“共鸣戒指”的加持,基本不会受到流速增大的影响,但052和049,必须躲在我“身后”前进,否则很容易被冲走。到了这种时候,即使有其他人发现了我的痕迹,也很难走过来了。

“人体的数据量相较于其它数据,份量太大,越向上,遇到的阻力越大,这也解释了我们明明是最近进来的数据,却在短短时间内被抛到了几年后的数据里。”

“核心区域似乎在通过某种方式回收一些数据,或者和某些固定的数据保持交互,这些.....”

“我们可以找到数据回流的通道,方便......”

“如果阻力继续增大,我俩应该是没法陪你去......”

“......”

往“瀑布”上走的时候,052和049都在尽力分析情况,解答我的一个又一个疑问。如果可以的话,我真想把戒指取下来,交给他俩之一。

虽然这些信息认真动动脑子,大多不难想到,但我的效率肯定没他们高,这些专业人员显然比我更适合处理各种费脑子的事。

有几个核心点,一是,要保持这样大的数据量,只靠外来输入肯定是不够的,一些数据是要回到核心区的。二来,“逆流而上”的过程中,开始出现重复的数据。

一开始以为是“一个视频被很多人上传下载”这种程度上的重复,但显然,如果是这样,在外围的时候,我们应该早就见过大量重复的视频,音频片段。

同一时间,一首热门歌曲,一部经典电影,肯定不止有一个人访问,那应该是会有很多数据量的。而在我们三个人此前的路程中,并未发现这种情况。

也就是说,相近时间段的数据来到这里后,会有“查重筛选”的过程,而这些临近核心区的重复内容,某种意义上,算是核心区里面的那位存在,反复观看的数据。

那么这些被反复浏览的数据有什么特别的吗?我们三个人的结论,都是没什么特别的。这些重复数据包罗万象,什么类型都有,和外围的那些数据,也没明显的差别。

从监控录像到电视直播,从肥皂剧到Vtuber,从流行乐到古典曲,从数据包到病毒集,等等等等,无所不包,除了能概括它们都是人类传递出的数据,还能找到什么共同点吗?

“0307,我们只能到这了。”

再往前,数据的流速陡然增大,连我都觉得有些吃力,他俩一直跟到这里,已经很优秀了。虽然还有一些问题没有解决,但已经帮了大忙,如果无人相助,我现在恐怕还在追着被我偏转的信息兜圈子。