盗賊の極意

Feed Rss

【坑0001】新番动画全收集

11.15.2012, 未分类, by , 8,684 views.

最近想找国语配音的柯南看,只有奇艺有,但他们不给我看#= = 

四处搜下载,折腾了老半天,无果,只好凑合着看日语中字的了——就连这,也是好不容易才找到的呢。

所谓痛定思痛,自己的命运果然是不能被掌握在别人手里啊!!!

于是决定把网络上有源的动画的资源位置都做一个记录,可能的话,希望把普清版全部下载回来。

可行性分析                                   

一、资源定位可能实现吗?                               

如果是普通的下载地址或种子,很可能遇到没有源了的问题。不过只要靠迅雷的离线下载,复活这些资源还是有希望的。一旦复活成功,就在离线空间里留下了一份可靠的资源定位,只要迅雷不耍赖,这个资源就丢不了了。不过要人家不耍赖谈何容易,还是尽早下载回来吧。

二、全下载可能实现吗?                                 

1. 硬盘空间足够吗?

家里买了一个3TB的NAS,按普清动画一集100MB,我拨1.5TB用来储存的话,可以存15000集。新番每年大约不超过50部,每部以13话完结居多,虽然有些动画会播更长,但也有些动画完全没有资源,互相抵消一下就算平均每部15集吧,一年是750集, 1.5TB可以存20年份的新番,可以认为硬盘空间不是问题。

2. 下载耗时可以接受吗?

上海电信10M下行宽带,实测满速度1MB+/s, 1.5TB / (1MB/sec) / (3600sec/h) = 416.7小时。我家的网基本上全天没人用,安排合理的话,20天以内就可以全部下载完毕。网速不是障碍。

3. 收集这些新番的下载地址的耗时可以接受吗?

说实话,这个才是大问题。如果靠我一个人手动,那很快热情就会冷却,最终弃坑。所以收集的问题,应该是靠“自动化”+“多人合作”的形式来推进。

自动化”可以收集simplecd和verycd之类网站上现有资源的分类和对应下载地址,然后用迅雷离线下载API之类的东西先拖到离线空间上,再取得带cookie的下载链接,用NAS下回来。也就是说,我们需要做一个程序

多人合作”就要有一个可以多人维护的清单,让人一见能看明白哪些作品收集到多少下载地址了,有多少已经拖进离线空间了,有多少已经下回本地了(这个“本地完成度”的显示可以因人而异)。这种完成度最好不要是手写的文本或富文本,而是靠程序来约束格式。也就是说,我们需要做一个网站

4. 如何确立清晰可验证的目标?

找到每年的新番表,按上面标注的来评价。

年表来源可以从维基百科导出XML文件后批量获得,不足的地方再慢慢补充。 

=======================================================

以上,为某触发条件达成时准备的填坑活动的一个备选选项。

=======================================================

啊啊~果然立计划比完成计划有趣多了啊(大雾)

【坑0001】新番动画全收集 有 13 条回应

  1. 这个想法太有趣了,俺喜欢大百科全书类型的计划!
    新番进度方面,用bangumi貌似不错,不知道他们是否开放API?至少我在Windows Phone上看到了非官方的客户端。

    回复
  2. TV版柯南每集都有国语配音么?反正我现在每周都是看猪猪字幕组的,都是在这个网站上下载的:http://www.sosg.net/

    回复
  3. 2012-11-24 在 14:16 道在屎溺

    企划案不能再棒!网站快做起来【站着说话···

    回复
    • 2012-12-01 在 20:47 基拉铃妖

      这只是企划之一,我打算多写几个企划,等到时候挑一个出来执行……

      回复

发表评论

电子邮件地址不会被公开。 必填项已用*标注

您可以使用这些HTML标签和属性: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>