每日一歌

日文老歌论坛

 找回密码
 注册
搜索
楼主: karaken

@@@@@ 緊急關閉 FTP3 緊急關閉 @@@@@@@

[复制链接]
 楼主| 发表于 2008-1-15 16:10:33 | 显示全部楼层


SOSO 還是第一 :Q



每天還有三千人次?


:Q :Q
发表于 2008-1-16 02:57:30 | 显示全部楼层

回复 #37 tea2006 的帖子

xiexie
发表于 2008-1-16 03:10:17 | 显示全部楼层
原来出了这种事,
 楼主| 发表于 2008-1-16 13:55:37 | 显示全部楼层
:@



:@ :@ :@ :@
发表于 2008-1-16 19:31:05 | 显示全部楼层
我现在没有赚钱,不然买一台服务器送给你们
发表于 2008-1-17 00:41:58 | 显示全部楼层
看来你的ip已经被列入soso的名单了。。。
删除掉所有歌曲 或者修改ip吧。。。
 楼主| 发表于 2008-1-17 11:38:54 | 显示全部楼层
原帖由 tcboy 于 2008-1-17 00:41 发表
看来你的ip已经被列入soso的名单了。。。
删除掉所有歌曲 或者修改ip吧。。。



所有三個月內的檔案全部都在  
只是暫時"扣留"   大門已關  只是一群強盜在門外叫囂
:@ :@



:@ :@ :@ :@

等強盜漸漸散去  再開門   :victory: :handshake

IP如何修改?


:handshake :handshake

[ 本帖最后由 karaken 于 2008-1-17 14:07 编辑 ]
发表于 2008-1-17 11:53:33 | 显示全部楼层
原帖由 karaken 于 2008-1-17 11:38 发表



所有三個月內的檔案全部都在  
只是暫時"扣留"   大門已關  只是一群強盜在們外叫囂
:@ :@

http://www.karaken.net/images/misc/URL-ref7 ...

那位朋友说的可能是指服务器的IP吧
发表于 2008-1-17 13:07:21 | 显示全部楼层
原帖由 karaken 于 2008-1-17 11:38 发表



所有三個月內的檔案全部都在  
只是暫時"扣留"   大門已關  只是一群強盜在們外叫囂
:@ :@

http://www.karaken.net/images/misc/URL-ref7 ...

終於看見可以令人安慰的狀況...我原本是想說檔案都被搶了哩  
嗯~還好..還好端端的在裡面  這陣子辛苦您了變臉兄弟加油ㄚ
我大概有40幾個專輯要下..不過我還是比較擔心大家哦〈真的奇怪..怎麼鼻子好像變長了~嗚
发表于 2008-1-17 13:22:47 | 显示全部楼层
原帖由 lon1919 于 2008-1-17 13:07 发表 [url=http://bbs.javaws.com/redirect.php?goto=findpost&pid=265901&ptid=15664][img]真的奇怪..怎麼鼻子好像變長了~嗚 〉

你鼻子本来就老长老长的。。。。。。。。
发表于 2008-1-17 17:17:36 | 显示全部楼层
晕死了,怎么会这样?
发表于 2008-1-18 16:35:00 | 显示全部楼层
原帖由 aiyin 于 2008-1-17 13:22 发表

你鼻子本来就老长老长的。。。。。。。。

偶的壽命還老長老長的。。。。。。。。    
发表于 2008-1-20 03:01:59 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
 楼主| 发表于 2008-1-20 05:21:13 | 显示全部楼层
原帖由 diji911 于 2008-1-20 03:01 发表
有什么对策吗?



對抗不了強盜(Hotlinks)   只好暫時躲一躲   :'(

:'( :'(
发表于 2008-1-20 12:14:03 | 显示全部楼层
應該可以設規則把 SOSO 的 DNS 和 IP 直接拒絕訪問,
至於試聽的話,要設定登入本站才能鏈接。
发表于 2008-2-2 17:30:10 | 显示全部楼层
建议设定积分制,达到一定积分等级才能看到FTP地址
发表于 2008-2-4 02:53:27 | 显示全部楼层
原来是盗连......看样子SOSO是腾讯的子站,腾讯越来越不要脸了
3号服务器能设置防盗链吗?
发表于 2008-2-4 04:05:26 | 显示全部楼层
一个多月没来坛子转,服务器竟然遭受这样的灾害,真是难以置信!
我试着在网上找找解决问题的办法,希望尽点微薄之力,现在找到了些资料,现提供给K版,试试看有用没有:
     

     这是“在易域网域名论坛”找到的一篇关于解决此类问题的方法,现转帖全文如下(原帖地址:http://www.domain.cn/club/viewthread.php?tid=379750):

使用国外虚拟主机过程中关于程序负载的注意事项由于国内环境日益变差,使用美国等国外虚拟主机的站长越来越多.美国的虚拟主机商由于技术上能力都比较强,不像国内的主机商发现占用资源过多的账户能力比较弱,发现成本比较高,造成某些站长可以长时间占用过多的资源而不被发现,所以美国的空间一般资源使用比较公平,同时总体的稳定性也非常强.但是这就造成了一个问题,这种环境造成了国内的一些程序不注意机能的节约使用,在国内运行起来可能很少遇到问题,一旦到了国外的主机上,往往造成因为技能超限,而被关闭账户的情况.这其中有些问题完全是编程思路的问题,只需要更换程序就可以解决,有些是大的思路问题,需要全盘的重新考虑.本文就国内的程序在国外主机上使用中需要注意的一些问题作一些简要的介绍,并就重要的问题提出一些解决的思路.

国外虚拟主机技能限制的一般范围介绍
国外的虚拟主机,价格在5~8美元左右的方案,一般允许cpu长期占用在1%~2%左右,允许突然的,短时间的cpu高占用,但是频率也不能太高.个别主机还对mysql连接数和页面链接数以及内存使用量有限制.普遍来说,windows的主机限制要严格于unix和linux主机.美国主机一般都提供巨大的流量和空间,实际上要真用完这些空间和流量是要有非常苛刻的要求的,不要企图办一个超大的论坛来用尽这些功能.

什么样的网站适合美国空间的主流方案
象上面所说的,美国空间的特点是空间和流量给得很大,但是cpu等机能方面限制得很死,那么什么类型的网站适合使用这类空间呢.经验表明,一般pv在10000左右的静态页面的网站是没问题的,动态方面的网站消耗的机能因为程序的不同有很大的差异,这里用dz论坛来说的,一般15分钟在线达到达到300人左右,如果使用的是dz的默认程序的话,就会有问题了.
所以,适合美国主流虚拟主机方案的类型的网站应该是静态网站,日pv小于10000,dz论坛15分钟小于300在线的会比较安全.

如何使我的网站能够支持更大的访问量
大家的网站一般都是静态和动态混用的,动态方面的程序也是多种多样,如何尽量减小资源的占用,使得网站能够承载更多的访问者,下面我们就这个问题来探讨.
上文讲过了,美国空间cpu限制的比较严,一般情况下很少有因为空间或者流量和连接数用尽而被封的,往往都是cpu或mysql连接数先超了.所以,优化的办法就是尽量的使数据静态化,减少程序内的运算和数据库的连接.
下面就具体问题来进行阐述:
1,尽量选用生成静态页面的系统
例如cms使用dedecms或phpcms可以生成静态文件的文章系统,论坛选用phpwind,因为phpwind可以生成静态的帖子页面,使用Discuz论坛的话可以加装
Discuz静态插件来达到和phpwind同样的效果.

2,注意防止搜索引擎的蜘蛛
这里分两种情况讨论
一种是杜绝蜘蛛和迅雷的访问.网站的有些内容,例如你提供下载的压缩包,字体,图片等,因为要持续读取,必然占用大量的连接数,虽然静态链接占用的cpu比较少,但是持续大量占用也是很危险的,尤其是你站长这种文件比较多的时候.如果你提供下载的内容被搜索引擎抓取对你增加流量的意义不大,例如软件下载,软件说明页给搜索引擎就可以了,软件本身是在没必要让他也读去,那么就有必要做些防止蜘蛛的工作了.迅雷这种东西同样不能小视,如果你提供软件或者字体抑或少量的音乐或其他下载,不被迅雷发现的概率为零,往往会在短时间内引来大量的连接,造成空间莫名其妙的被停,所以防治迅雷也是节省节能所十分必要的,同时也可以防止住一般的盗链和采集.一般国外的虚拟主机都支持自定义.htaccess的,具体请参考
防盗链设置屏蔽搜索引擎程序.如果在设置过程中遇到困难,可以到淘机网提问,工友会帮助你解决问题的.
另外一种情况是防止个别的搜索引擎访问.google和百度对增加流量大有益处,是绝对不能禁止的.但是你是否知道,虽然不能带来流量,但是许多不出名的搜索引擎可能占用你的机能和连接数却很有可能达到google和百度的几倍设置几十倍.通过自身经验,我告诉大家这是经常发生的事情.有些非著名的蜘蛛完全可能占用你网站消耗cpu的90%,导致你的空间被关闭.一般国外的搜索引擎都有详细的统计,通过查看统计,一旦发现这种情况,可以使用
屏蔽搜索引擎程序来杜绝他们.

3,备份数据库要注意
如果有过在命令行模式下备份或者有top权限的朋友一定会知道,在备份数据库的时候cpu占用会持续达到100%或者比较高的水平.我们一般在备份规模较小的数据库的时候,可以采用命令行或者phpmyadmin备份,但是一旦备份量比较大,备份程序就会长时间把cpu占满,造成空间被封.所以,正确的选择备份程序是非常有必要的,象使用dz的时候尽量使用它的备份工具,如果发现页面停顿时间较长,应该减少一次备份的条数;坚决不要使用命令行被封方式;如果程序本身的备份程序是一次导出模式的,那么应该改动成熟的第三方可分卷备份工具,例如帝国备份王等.我们的目的就是降低每次导出cpu的持续占用率,不要造成长时间的持续cpu高占用,而是把大数据分成一点一点的,多次导出.

4,不要发布重复数据,要重小心蜘蛛
虚拟主机使用中要注意蜘蛛对机能的消耗.并且这种消耗和访问量多少没有任何关系,只和你的数据量有关,以文章来说,文章越多,蜘蛛消耗越大.举个例子,如果你的dz论坛有大量的帖子,那么到了晚上,即使真正的访问者没有多少,你也可能看到成百上千的在线人数,这些就是蜘蛛,他们占用了你网站宝贵的机能,使得你不能支持更多的真实访问者.诚然,你可以从上面的第二点中找到方法屏蔽大量的非主流蜘蛛,但是google和百度的蜘蛛数量仍旧是恐怖的.如果你采集了别人大量的数据,如果太多的话,即使还没有多少真人访问量,仅仅因为蜘蛛,你的网站就很可能被主机商关闭掉.那么象dz论坛那样,如果你同时安装了SupeSite,那么就把ss设置为点击内容直接进入dz的帖子吧,这样就可以凭空减少一半的消耗,而同样的内容,并不会给你打来更多的搜索访问者的.dz的Archiver也是这个道理,如果你已经做了静态化,那么就没必要保留Archiver了,把Archiver目录删除掉吧

5,防止无谓消耗
网站的有些内容往往是建站程序自带的,本身也就是锦上添花的作用,但是这些附带的功能往往可能导致cpu超限,使得空间被关闭.这里还是拿使用最普遍的dz论坛程序为例说明.dz论坛里有个查看所有会员列表的功能,例如
http://www.taoji.org/forum/member.php?action=list,不要小看这个功能,一旦你的会员数上万,查看一次很可能会消耗10%的cpu,随着会员数的增加,会持续上升,直到100%,而且这还是使用member表主键列表的情况下,一旦按照用户名或者积分等排序,那么消耗的cpu,懂点数据库知识的朋友都能想象得到吧.而且这些都只是说的一次请求,而搜索引擎往往会顺着分页1,2,3这样不断的读取小去,有些朋友不知道自己的空间为何被封,实际上好好想想吧,自己网站里这些炸弹还有多少.解决的办法也很简单,在member.php程序第一行加个exit吧.普遍使用的程序还有许多这样的炸弹程序,如果你需要解决或者想优化你的程序,可以来淘机网提问,大家共同探讨解决之道.

6,关闭gzip压缩
gzip压缩大家都比较熟悉,就是把页面打成压缩包发送被浏览器,可以大大节省页面打开的速度.但是如果你的网站本身访问量比较大,又是那种页面比较多的网站,那么请注意了.gzip实际上就是压缩文件,平时我们压缩文件的时候都会注意到cpu的消耗会很高的,因为页面很小,这个过程会很快,所以在cpu上反应不大,但是如果你的页面非常多,而搜索引擎常常群起来访,大量的文件压缩就会造成很高的cpu占用负载.所以如果你的网站本身访问量很大,页面又非常多,那么关闭gzip吧,你的网站可以至少能多增加40%的访问量.

工友最新制作的
Discuz虚拟主机节能改造版欢迎大家使用

本文就国外虚拟主机使用过程中的负载问题进行了初步的介绍和探讨,希望对大家的使用有所帮助,工友敬上


[ 本帖最后由 leastboy 于 2008-2-4 04:06 编辑 ]
发表于 2008-2-4 04:22:48 | 显示全部楼层
接下来转帖“美国主机 淘机网”论坛的帖子(原帖地址:http://www.taoji.org/forum/thread-4-1-1.html


建议看原帖,里面有“蜘蛛引擎不完全列表”

搜索引擎蜘蛛屏蔽程序
     现在搜索引擎的蜘蛛太猖狂,已经成为了虚拟主机被封的主要元凶,要说百度google也就算了,毕竟能带来流量。一些不入流的引擎也来凑热闹,不能带来流量不说,由于抓取程序写得不好,破坏力反而较之知名的搜索引擎更大,那么,用这个程序屏蔽掉他们吧
使用的时候可以存为一个php文件,然后其他需要保护的文件include他即可,也可以直接写到文件里.同时也可以使用.htaccess文件来进行评比,这样就不必一个一个改文件了.

.htaccess方式:

代码:

SetEnvIfNoCase User-Agent "^baiduspider" ban_bot
SetEnvIfNoCase User-Agent "^yahoo" ban_bot

deny from env=ban_bot



php程序方式:

代码:

<?
$spider_array = array('baiduspider', 'googlebot', 'yahoo');
foreach($spider_array as $v) {
        if(preg_match("/".$v."/", strtolower($_SERVER['HTTP_USER_AGENT']))) {
                exit;
        }
}
?>



不过,好像蜘蛛列表里没见到SOSO......

[ 本帖最后由 leastboy 于 2008-2-4 04:24 编辑 ]
发表于 2008-2-4 04:30:57 | 显示全部楼层
这同样是转帖“美国主机 淘机网”的帖子(原帖地址:http://www.taoji.org/forum/thread-3-1-1.html

防盗链代码
     把此代码存为.htaccess文件放到需要保护的目录下即可防止文件被盗链,主要是防迅雷。需要注意的是不要直接用域名,而是还要带上下载文件链接所在的页面,如果页面文件是多个或id号的,那么只带上路径也行。这是因为有些下载软件会分析下载地址,例如http://www.taoji.org/down/test.zip,有些软件就会自动把路径http://www.taoji.org/down/作为Referer发给服务器,绕过防盗链文件,这点需要注意

代码:

SetEnvIfNoCase Referer "^http://taoji\.org/down\.php" local_ref=1
SetEnvIfNoCase Referer "^http://www\.taoji\.org/down\.php" local_ref=1
<FilesMatch "\.(jpg|zip|rar|gif|bmp|torrent|mp3|mpg|rm|ra|mov)">
Order Allow,Deny
Allow from env=local_ref
Allow from 127.0.0.1
</FilesMatch>


[ 本帖最后由 leastboy 于 2008-2-4 04:32 编辑 ]
发表于 2008-2-4 04:35:23 | 显示全部楼层
继续转帖“美国主机 淘机网”帖子(原帖地址:http://www.taoji.org/forum/thread-1636-1-1.html

Discuz虚拟主机节能改造版阅读本片文章前,建议先阅读使用国外虚拟主机过程中关于程序负载的注意事项.《使用国外虚拟主机过程中关于程序负载的注意事项》里叙述了降低虚拟主机负载的注意事项和方法,关于dz节能的方法也在有说明,但是分散在文章全文中,本文把上文中分散的关于dz节能的方法整理提炼出来,专门作出说明,并且制作出一个最节能的版本.
这个版本的目的是为了那些在美国虚拟主机空间上因为dz论坛频频超限而困扰的站长编写的,最大限度的降低了dz论坛消耗的服务器资源,欢迎大家在使用中提出改进要求和问题

修改和设置事项:
1,登录后台,请关掉游客用户组允许查看统计数据的权限
2,在后台个人空间设置里关闭掉个人空间.
3,在后台搜索引擎优化里,启用 Archiver选择关闭.
4,如果已经开启了gzip,请到后台服务器优化里关闭gzip压缩
5,在后台用户权限设置里,允许查看会员列表选择否
6,上传upload文件夹所有文件
7,如果你的注册页面是生成动画验证码的,请务必关闭,如果资源比较紧张并且是图片验证码,那么请把图片验证码也关闭掉
8,如果你在使用dz出的x-space,请把一个叫batch.download.php的文件删除

由于发现设置可以代替某些直接修改的左右,所以做了以上设置后,直接下载
Discuz静态改造版发布里相应的压缩包就可以了
发表于 2008-2-4 04:46:56 | 显示全部楼层
这是转帖美国主机论坛”的一些零星帖子,里面提到了垃圾SOSO(原帖地址:http://www.1usa.cn/viewthread.php?tid=193701


引用:
原帖由 forevercqh 于 2007-9-3 10:46 AM 发表
我的论坛一天才1500IP,可是有10000多PV啊。。汗。

这样的要把占用资源的功能插件都关闭掉,论他板块不要太多
还有防盗链,防采集等工作要做好

引用:
原帖由 157882720 于 2007-9-3 11:10 AM 发表
好像真正自己用到的流量也没多少吧...其它方面浪费的还是多点的.......采集,搜索,还有网站方面设置......

我看我们的统计,非浏览器流量占将近50%,所以如果能在这方便节省下来可以提供很多流量
比如说盗链
soso 搜狐 中搜之类的垃圾蜘蛛
离线浏览器和采集

引用:
原帖由 forevercqh 于 2007-9-3 11:08 发表
啊?

国外空间还有这种限制?  不是说一个月 2000G流量吗? 是不是在CPU使用率上会出问题?

他们不会限制你的IP,和PV的。
但是会限制CPU占用率的。
PV一高CPU自然占用就高了

引用:
原帖由 David 于 2007-9-3 11:15 AM 发表

我看我们的统计,非浏览器流量占将近50%,所以如果能在这方便节省下来可以提供很多流量
比如说盗链
soso 搜狐 中搜之类的垃圾蜘蛛
离线浏览器和采集 ...

如何禁止soso 搜狐 中搜这几个蜘蛛呢?把他们彻底禁止有办法么?我不要了,有google baidu即可。
你说的这些都如何禁止?
盗链我已经在hotlink里面设置了。

引用:
原帖由 dudu 于 2007-9-3 12:04 PM 发表

如何禁止soso 搜狐 中搜这几个蜘蛛呢?把他们彻底禁止有办法么?我不要了,有google baidu即可。
你说的这些都如何禁止?
盗链我已经在hotlink里面设置了。 ...

一种方法:禁止他的IP
另外一种 根据agent信息禁止
还有就是robot文件
后面两种对于比较流氓的搜索不行,第一种最彻底

引用:
原帖由 dudu 于 2007-9-3 12:18 PM 发表
离线浏览器和采集有没有办法彻底禁止。我论坛是必须登录才可以看帖子内容的,这样是不是也有作用?

这个比较困难
可以通过agent识别一部分,例如搜索email的,离线浏览器等,但是如果他把自己标记为IE就不好识别了
主要蜘蛛的IP我在站长交流版发过

引用:
原帖由 dudu 于 2007-9-3 12:39 PM 发表
看到了。有没有办法一次禁止除了google以外的所有机器人?
另外IP过滤直接在主机控制面板里面的IP过滤可以么?


可以的

引用:
原帖由 dudu 于 2007-9-3 01:02 PM 发表
User-agent: baiduspider
Disallow: /admin/
Disallow: /api/
Disallow: /attachments/
Disallow: /customavatars/
Disallow: /images/
Disallow: /forumdata/
Disallow: /include/
Disallow: /ipdata/
Disallow: /templates/
Disallow: /plugins/
Disallow: /mspace/
Disallow: /wap/
Disallow: /admincp.php
Disallow: /ajax.php
Disallow: /digest.php
Disallow: /logging.php
Disallow: /member.php
Disallow: /memcp.php
Disallow: /misc.php
Disallow: /my.php
Disallow: /pm.php
Disallow: /post.php
Disallow: /register.php
Disallow: /rss.php
Disallow: /search.php
Disallow: /seccode.php
Disallow: /topicadmin.php
Disallow: /space.php

User-agent: Googlebot
Disallow: /admin/
Disallow: /api/
Disallow: /attachments/
Disallow: /customavatars/
Disallow: /images/
Disallow: /forumdata/
Disallow: /include/
Disallow: /ipdata/
Disallow: /templates/
Disallow: /plugins/
Disallow: /mspace/
Disallow: /wap/
Disallow: /admincp.php
Disallow: /ajax.php
Disallow: /digest.php
Disallow: /logging.php
Disallow: /member.php
Disallow: /memcp.php
Disallow: /misc.php
Disallow: /my.php
Disallow: /pm.php
Disallow: /post.php
Disallow: /register.php
Disallow: /rss.php
Disallow: /search.php
Disallow: /seccode.php
Disallow: /topicadmin.php
Disallow: /space.php

User-agent: *
Disallow: /

搞定了,这样应该禁止了google baidu以外所有机器人吧……

有些蜘蛛不遵守robot协议

[ 本帖最后由 leastboy 于 2008-2-4 04:49 编辑 ]
发表于 2008-2-4 04:55:39 | 显示全部楼层
最后转帖众志成城”论坛的帖子(原帖地址:http://www.anchy.cn/2007-5/19/1035407741.html


如何防盗链

      做下载站以及做图片站以及电影站,最怕的就是被盗链,我做图片站的时候,使用的万网的空间,只要有5张图片被搜狐等收录了,就完蛋了,就一直提示服务器忙。
我自己总结了一个非常好的办法,非常的实用。
把网站程序设置为一个文件夹,例如为1
然后网站空间里放着index.html以及1这个文件夹,文件夹里包含着网站程序以及需要使用的资源,包括图片以及程序等或者是包括下载内容。
然后把index.html跳转到1这个文件夹上。
也就是当访问www.anchy.cn/  的时候,首先访问的文件就是index.html 然后index.html跳转到了1这个文件夹,所以就显示了www.anchy.cn/1
当资源被盗链的时候, 也就是别人偷你的资源都是都是来自1这个文件夹。

      这个时候,我可以把index.html 里的跳转地址改为2
然后把1文件夹名改为2
这个样子当我访问http://www.anchy.cn/ 的时候就直接进入了www.anchy.cn/2

      网站通过http://www.anchy.cn/ 访问的时候内容和数据不变。

      但是这么做的缺点搜索引擎总是报错,因为搜索引擎收录的总是慢我们半拍,所以搜索引擎来的流量太少了,基本上没有了,这个适合自然流量巨大的站。
这是我的几个图片站采用的最传统的方法,因为其它的反链接技术,只能说是保护图片在别的站上不显示,但是一样被调用数据,服务器压力非常巨大。这个样子可以从根本上避开盗链

      还有一个更好的方法:
      那就是中间加一个跳转文件,这个文件为txt文件,上面记录的都是哪页显示的哪个链接,每次访问的时候,页面都会根据这个TXT文件上的地址进行一次调用。
例如:
aoyunhui.wav——film/1/aoyunhui.wav
每次aoyunhui.wav的时候都会根据这个txt上的地址进行调用。
那么只要我修改一下这个文件里的某一个文件名,同时把资源的文件名改一下,那么就可以逃避开所有的盗链了,而且关键的一点, 那就是这个样子不会改变显示页面的地址,在搜索引擎中能够拉来很多直接的流量。

      方法一涉及不到编程,方法二涉及到编程,我总结的一点,那就是任何一个反盗链技术都比不过改文件夹,例如人家都知道有钱在百货大楼,所谓的反盗链技术就是说在百货大楼门口增加了门卫,但是如果我把钱放到了懂懂家里了, 百货大楼用钱的时候就到懂懂家取,当你知道懂懂家里有钱的时候,我又放到了别人家里去了, 而这些钱都是百货大楼的。

      方法二可以当成一个资源反盗链方法来卖,这个方法目前在网络上的反盗链中应用的很少。
发表于 2008-2-4 04:59:25 | 显示全部楼层
累死我了,总算发完了,我不是网络专家,只能帮忙找些真正的专家提供的方法,希望这些方法能起到作用,早日我们一个相对洁净的共享空间!

呵,都五点了?!睡了睡了!困死咯~
发表于 2008-2-6 13:43:57 | 显示全部楼层
原帖由 leastboy 于 2008-2-4 04:59 发表
累死我了,总算发完了,我不是网络专家,只能帮忙找些真正的专家提供的方法,希望这些方法能起到作用,早日我们一个相对洁净的共享空间!

呵,都五点了?!睡了睡了!困死咯~

您辛苦了.希望您的劳动K哥哥有所帮助
发表于 2008-2-28 03:21:51 | 显示全部楼层
这么长的资料,怕K哥看不过来吧
您需要登录后才可以回帖 登录 | 注册

本版积分规则

小黑屋|手机版|Archiver|日文老歌论坛 ( 沪ICP备05038666号 )

GMT+8, 2024-11-23 05:05 , Processed in 0.016281 second(s), 6 queries , MemCached On.

Powered by Discuz! X3.4

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表