<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>IT &#8211; 扫地老僧的Blog</title>
	<atom:link href="https://doyj.com/tag/it/feed/" rel="self" type="application/rss+xml" />
	<link>https://doyj.com</link>
	<description>Laputa - 远方地平线，闪耀着光芒</description>
	<lastBuildDate>Mon, 24 Feb 2025 10:38:00 +0000</lastBuildDate>
	<language>zh-Hans</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.7.2</generator>
	<item>
		<title>“com.docker.vmnted” was not opened because it contains malware 问题解决</title>
		<link>https://doyj.com/2025/02/24/com-docker-vmnted-was-not-opened-because-it-contains-malware-%e9%97%ae%e9%a2%98%e8%a7%a3%e5%86%b3/</link>
					<comments>https://doyj.com/2025/02/24/com-docker-vmnted-was-not-opened-because-it-contains-malware-%e9%97%ae%e9%a2%98%e8%a7%a3%e5%86%b3/#respond</comments>
		
		<dc:creator><![CDATA[oldmonk]]></dc:creator>
		<pubDate>Mon, 24 Feb 2025 10:38:00 +0000</pubDate>
				<category><![CDATA[IT]]></category>
		<guid isPermaLink="false">https://doyj.com/?p=2813</guid>

					<description><![CDATA[好久没有在Mac下用Docker，今天用docker的出现如下提示框： 关掉没有用，会反复出现。 把机器重启， &#8230; <a href="https://doyj.com/2025/02/24/com-docker-vmnted-was-not-opened-because-it-contains-malware-%e9%97%ae%e9%a2%... ]]></description>
										<content:encoded><![CDATA[
<p>好久没有在Mac下用Docker，今天用docker的出现如下提示框：<br><img fetchpriority="high" decoding="async" width="400" height="349" class="wp-image-2814" style="width: 400px;" src="https://doyj.com/wp-content/uploads/2025/02/image.png" alt="“com.docker.vmnted” was not opened because it contains malware. This action did not harm your Mac."></p>



<p></p>



<p>关掉没有用，会反复出现。 把机器重启，重装docker都没用， 在网上查了半天，发现没一个网页记录了完整的解决方法，我这里记录下自己是怎么解决的。 </p>



<ol class="wp-block-list">
<li>先要完整的卸载Docker。 
<ul class="wp-block-list">
<li>可参见<a href="https://docs.docker.com/desktop/uninstall/" rel="nofollow">Docker给的卸载文档</a>， 但文档里说的也有问题， 比如文档里说通过在命令行执行 /Applications/Docker.app/Contents/MacOS/uninstall 来卸载，但在我机器上执行这个命令会死在那里，一直不动。 最后没办法，只好手动从Application文件夹里把Docker卸载了</li>



<li>然后按文档执行下面命令<br><code>rm -rf ~/Library/Group\ Containers/group.com.docker <br>rm -rf ~/.docker</code></li>



<li>最关键是删除下面两个文件<br><code>sudo rm -f /Library/PrivilegedHelperTools/com.docker.vmnetd<br>sudo rm -f /Library/PrivilegedHelperTools/com.docker.socket</code></li>
</ul>
</li>



<li>然后重新安装Docker Desktop for Mac</li>



<li>但安装完别着急运行，先执行下面的命令：<br><code>sudo cp /Applications/Docker.app/Contents/Library/LaunchServices/com.docker.vmnetd /Library/PrivilegedHelperTools/</code><br></li>



<li>按照以上步骤，你应该能顺利解决 Docker 启动问题。如果还有问题，可以尝试重启电脑后再运行 Docker。</li>
</ol>



<p></p>
]]></content:encoded>
					
					<wfw:commentRss>https://doyj.com/2025/02/24/com-docker-vmnted-was-not-opened-because-it-contains-malware-%e9%97%ae%e9%a2%98%e8%a7%a3%e5%86%b3/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>正在韩国的m7106公共汽车上</title>
		<link>https://doyj.com/2009/09/09/</link>
					<comments>https://doyj.com/2009/09/09/#comments</comments>
		
		<dc:creator><![CDATA[oldmonk]]></dc:creator>
		<pubDate>Wed, 09 Sep 2009 03:18:35 +0000</pubDate>
				<category><![CDATA[IT]]></category>
		<category><![CDATA[旅行]]></category>
		<guid isPermaLink="false">http://www.doyj.com/2009/09/09/</guid>

					<description><![CDATA[正在韩国的m7106公共汽车上，这个公共汽车提供免费wifi信号，票价1800韩币，人民币10元左右，车上还提 &#8230; <a href="https://doyj.com/2009/09/09/" class="more-link">继续阅读<span class="screen-reader-text">正在... ]]></description>
										<content:encoded><![CDATA[<p>正在韩国的m7106公共汽车上，这个公共汽车提供免费wifi信号，票价1800韩币，人民币10元左右，车上还提供手机充电插座。</p>
<p>补充：每个座位上的乘客须知中有句话<br />
：若发现司机吸烟或打手机，请拨打举报电话，交通卡充值一万韩币做奖励。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://doyj.com/2009/09/09/feed/</wfw:commentRss>
			<slash:comments>2</slash:comments>
		
		
			</item>
		<item>
		<title>保障计算机安全的责任应该由用户来承担么？</title>
		<link>https://doyj.com/2009/05/28/</link>
					<comments>https://doyj.com/2009/05/28/#comments</comments>
		
		<dc:creator><![CDATA[oldmonk]]></dc:creator>
		<pubDate>Wed, 27 May 2009 18:36:20 +0000</pubDate>
				<category><![CDATA[IT]]></category>
		<category><![CDATA[计算机安全]]></category>
		<guid isPermaLink="false">http://www.doyj.com/?p=1023</guid>

					<description><![CDATA[现在用的操作系统是Vista, 经常会弹出对话框，要求审批是否给予一些应用程序以管理员权限。 为了安全还安装了 &#8230; <a href="https://doyj.com/2009/05/28/" class="more-link">继续阅读<span class="screen-reader-... ]]></description>
										<content:encoded><![CDATA[<p>现在用的操作系统是Vista, 经常会弹出对话框，要求审批是否给予一些应用程序以管理员权限。 为了安全还安装了一个防火墙和杀毒软件，经常会弹出对话框要求确认是否允许一些程序运行，允许程序访问互联网，允许程序存取关键目录和文件。 这些需要审核的对话框有时弹出的太频繁，让人不胜其烦，只能看都不看直接点允许。 这些对话框有时提示的信息太晦涩，看不明白啥意思，拿不准是该批准还是拒绝。 对我这个IT技术人员还如此困难，对非IT专业人员的使用难度可想而知。</p>
<p>当计算机安全的挑战越来越大时，微软和杀毒软件厂商们把大量判断的责任推给用户们，这样一旦出了问题可以推卸责任，说是用户的选择错误，而不是软件问题。 难道计算机安全的责任只能由最终用户来承担么？ 最终用户能承担好这个责任么？</p>
]]></content:encoded>
					
					<wfw:commentRss>https://doyj.com/2009/05/28/feed/</wfw:commentRss>
			<slash:comments>4</slash:comments>
		
		
			</item>
		<item>
		<title>用iphone写blog</title>
		<link>https://doyj.com/2008/12/02/</link>
					<comments>https://doyj.com/2008/12/02/#comments</comments>
		
		<dc:creator><![CDATA[oldmonk]]></dc:creator>
		<pubDate>Tue, 02 Dec 2008 14:07:01 +0000</pubDate>
				<category><![CDATA[IT]]></category>
		<category><![CDATA[推荐]]></category>
		<category><![CDATA[iphone]]></category>
		<guid isPermaLink="false">http://www.doyj.com/2008/12/02/</guid>

					<description><![CDATA[前几天才知道iphone上有与wordpress同名的免费应用程序，可以用来在iphone上写blog。这一篇 &#8230; <a href="https://doyj.com/2008/12/02/" class="more-link">继续阅读<span class="screen-reader-text">用iphone写blog</span></a... ]]></description>
										<content:encoded><![CDATA[<p>前几天才知道iphone上有与wordpress同名的免费应用程序，可以用来在iphone上写blog。这一篇就是用iphone写的，下面的图就是软件的截屏。软件功能不错，但iphone输入的不方便，让写blog的过程变得很痛苦，尤其是修改时重新定位光标特别艰难，还有不支持copy&amp;paste让人抓狂，键盘的构思虽然巧妙，但还是常常按错键。比起前一个treo 600全键盘输入带来的流畅感，简直是天地之别。</p>
<p>虽然输入不便，但还是很喜欢iphone。刚才朋友短信过来自己女儿满周岁照片的网上相册地址，点短信中的链接就直接跳到picasa网上相册，显示效果非常完美。一张张翻看小天使的照片，仿佛手中的iphone真的成了相册，看得非常惬意。</p>
<p>平常最常用的还有stanza电子书软件，结合网上图书馆室，iphone又成了让人爱不释手的书。</p>
<p>平常跑步锻炼就用trackthing，统计跑的距离和速度，还不够好，不过magico已经答应要做个更好的iphone跑步软件给我，条件是将来拿了马拉松冠军奖金要分他一半。</p>
<p>写上面这点文字已经用去了一个多小时，iphone看来还是不适和作为日常的blog书写工具，但用来发一些以图片为主的blog（如突发新闻事件播报），应该还是可以大有作为的。</p>
<p><strong>更新</strong>：被magico鄙视了，修改时定位光标原来一点都不难：对着想定位光标的文字，按1秒钟以上，出来一个放大镜，然后稍微移动手指，看着光标在放大镜里跟着动，很容易就能定位了。</p>
<p><a href="http://www.doyj.com/wp-content/uploads/2008/12/p-480-320-5f067a73-149c-4254-b34c-491f1ec42f4b.jpeg"><img decoding="async" class="alignnone size-full wp-image-364" src="http://www.doyj.com/wp-content/uploads/2008/12/p-480-320-5f067a73-149c-4254-b34c-491f1ec42f4b.jpeg" alt="" width="200" height="300" /></a></p>
<p><a href="http://www.doyj.com/wp-content/uploads/2008/12/p-480-320-46888d32-5379-4f01-ba07-e04f8e058d0c.jpeg"><img decoding="async" class="alignnone size-full wp-image-364" src="http://www.doyj.com/wp-content/uploads/2008/12/p-480-320-46888d32-5379-4f01-ba07-e04f8e058d0c.jpeg" alt="" width="200" height="300" /></a></p>
]]></content:encoded>
					
					<wfw:commentRss>https://doyj.com/2008/12/02/feed/</wfw:commentRss>
			<slash:comments>5</slash:comments>
		
		
			</item>
		<item>
		<title>用下载来上载</title>
		<link>https://doyj.com/2007/12/13/</link>
					<comments>https://doyj.com/2007/12/13/#comments</comments>
		
		<dc:creator><![CDATA[oldmonk]]></dc:creator>
		<pubDate>Thu, 13 Dec 2007 15:20:31 +0000</pubDate>
				<category><![CDATA[IT]]></category>
		<guid isPermaLink="false">http://www.doyj.com/2007/12/13/</guid>

					<description><![CDATA[从大约两个月前，用家里的电信小区宽带FTP上载到美国服务器速度就奇慢，一般速度只有2K-4K字节每秒，而且不稳 &#8230; <a href="https://doyj.com/2007/12/13/" class="more-link">继续阅读<span class="screen-reader-... ]]></description>
										<content:encoded><![CDATA[<p>从大约两个月前，用家里的电信小区宽带FTP上载到美国服务器速度就奇慢，一般速度只有2K-4K字节每秒，而且不稳定，经常断。 上传45M的文件，有时要上传一整天。 用VPN登陆到美国服务器则更糟糕，往往是开头挺快，30K-40K，传了几兆后就跌到1K-2K。 下载都很正常，用FTP下载美国服务器上的同一个文件，单线程能到20K的速度，多开几个能到100K。下载国内的就更快了，用快车最快能到500K。 </p>
<p>今天上载又是特别艰难。凌晨3点用Cuteftp pro开始上载后就去睡了，本以为醒了后就上载完了，起来一看才20%多。不着急，等着吧。到中午已经到了97%，正乐着呢，没想到又突然跳回1%开始上传！抓狂！</p>
<p>即将气得要砸了电脑的时候，突发奇想，用终端登录到美国的服务器，然后在自己的台式机上启动apache，从美国服务器用wget下载自己台式机上的文件，速度好多了，一直保持在15K。后来不满足，在网上找了个linux下的多线程下载<a href="http://myget.sourceforge.net/" target="_blank">myget</a>，但是无论开启多少个线程速度也是15K的样子，唯一的亮点是能断点续传。只好死了多线程的心，一直等到wget下载完，45M用了半个多小时，谢天谢地中间没断。</p>
<p>大家有啥更好的办法赶紧教教我。</p>
<p>&nbsp;</p>
<p>另：这个上载速度慢的问题，怀疑和GFW有关，不过现在还没啥证据。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://doyj.com/2007/12/13/feed/</wfw:commentRss>
			<slash:comments>2</slash:comments>
		
		
			</item>
		<item>
		<title>网站流量分析行业的薪资水平</title>
		<link>https://doyj.com/2007/12/13/</link>
					<comments>https://doyj.com/2007/12/13/#comments</comments>
		
		<dc:creator><![CDATA[oldmonk]]></dc:creator>
		<pubDate>Thu, 13 Dec 2007 14:57:00 +0000</pubDate>
				<category><![CDATA[IT]]></category>
		<category><![CDATA[推荐]]></category>
		<category><![CDATA[web-analytics]]></category>
		<category><![CDATA[网站流量分析]]></category>
		<guid isPermaLink="false">http://www.doyj.com/2007/12/13/</guid>

					<description><![CDATA[前一阵webanalyticsdemystified.com做了一个网站流量分析行业工资水平的调查，调查结果昨 &#8230; <a href="https://doyj.com/2007/12/13/" class="more-link">继续阅读<span class="screen-reader-text">网站流量分析行业的薪... ]]></description>
										<content:encoded><![CDATA[<p>前一阵webanalyticsdemystified.com做了一个网站流量分析行业工资水平的调查，<a target="_blank" href="http://blog.webanalyticsdemystified.com/weblog/2007/12/web-analytics-salaries-2007-insights-and-observations.html">调查结果</a>昨天发布了。调查主要是在美国，调查出的平均年薪是$86，883（美元，税前，下同）。低于$50,000的是18%， 还有10%是高于$150，000。 有5年以上经验的，平均年薪是$102,544。 从2005年2月3日到2007年9月27日，发布在indeed.com上要求具有网站流量分析技能的招聘广告已经有了近275%的增长 (在51job.com则一个都没搜索到)。</p>
<p>调查报告在 <strong><a href="http://www.webanalyticsdemystified.com/sample/Web_Analytics_Demystified_RESEARCH_-_March_2007_-_Salary_Survey.pdf">Web Analytics Salaries 2007: Insights and Observations</a></strong> (PDF 格式)</p>
<p>调查的数据可以在 <a href="http://www.webanalyticsdemystified.com/research/salary_data.asp"><strong>Web Analytics Salary Data</strong></a> 查询。</p>
<p>等合适的时候也做做国内的网站流量分析行业的薪资水平调查。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://doyj.com/2007/12/13/feed/</wfw:commentRss>
			<slash:comments>2</slash:comments>
		
		
			</item>
		<item>
		<title>如何用Google Analytics跟踪出站点击</title>
		<link>https://doyj.com/2007/11/17/</link>
					<comments>https://doyj.com/2007/11/17/#comments</comments>
		
		<dc:creator><![CDATA[oldmonk]]></dc:creator>
		<pubDate>Sat, 17 Nov 2007 07:04:44 +0000</pubDate>
				<category><![CDATA[IT]]></category>
		<category><![CDATA[google]]></category>
		<category><![CDATA[Google-Analytics]]></category>
		<category><![CDATA[web-analytics]]></category>
		<category><![CDATA[网站流量分析]]></category>
		<guid isPermaLink="false">http://www.doyj.com/2007/11/17/</guid>

					<description><![CDATA[有时候我们需要知道用户是点击了站点中哪个外部链接离开了你的站点。比如当你的购买链接是指向第三方的收费代理，这时 &#8230; <a href="https://doyj.com/2007/11/17/" class="more-link">继续阅读<span class... ]]></description>
										<content:encoded><![CDATA[<p>有时候我们需要知道用户是点击了站点中哪个外部链接离开了你的站点。比如当你的购买链接是指向第三方的收费代理，这时候就很有必要知道有多少用户是点击了购买链接离开了你的站点. 单靠平常的<strong>在线统计</strong>或<strong>日志分析(Log Analysis)</strong>是不能跟踪的，因为很多时候外部站点不允许你插入统计代码，更不会给你看日志文件。这时候就需要我们动手加点东西来实现对<strong>出站点击</strong>的跟踪。</p>
<p>以前追踪<strong>出站点击</strong>的方法主要就是不直接链接到外部站点，而是链接到一个本地文件上，把用户的出站点击经这个文件中转一下。这样通过<strong>日志分析(Log Analysis)</strong>统计中转文件的访问，或直接由这个中转文件把统计结果写入数据库， 以此来实现对出站点击的跟踪。</p>
<p>那么用<strong>Google Analytics</strong>如何跟踪<strong>出站点击</strong>呢？有人要说可以在中转文件中插入Google Analytics的代码，实际上有个更简单的办法。 在普通网页统计插入的<strong>Google Analytics</strong>代码中，最后要调用不带参数的<strong>urchinTracker</strong>() 函数。其实这个函数是可以带参数的。查看<a target="_blank" href="http://www.google-analytics.com/urchin.js">http://www.google-analytics.com/urchin.js</a>这个文件，你会发现这个参数名是page，再向下多看看你就很容易发现，这个page参数就是统计页面的url。 利用这个函数就可以实现对出站点击的追踪了，将每个出站链接加入如下代码：</p>
<blockquote><p>&lt;a&nbsp;href=&#8221;http://www.waibu.com&#8221; <strong><em>onClick=&#8221;javascript:<font color="#ff0000">urchinTracker(</font>&#8216;<font color="#008000">/outgoing/1</font>&#8216;<font color="#ff0000">)</font></em>;&#8221;</strong>&gt;链接&lt;/a&gt;</p></blockquote>
<p>这个链接中给出的参数&#8217;<font color="#008000">/outgoing/1</font>&#8216; 是可以根据自己需要定制的，并不是站点中必须要有的文件。urchinTracker 这个函数你只要给他什么参数他就统计什么，实际是否存在并不关心。 加入这段代码后，一旦用户点击，<strong>Google Analytics</strong>就会记录为一个对&#8217;<font color="#008000">/outgoing/1</font>&#8216;的访问。这样你只用每天看Top Content（最常见内容）报表中&#8217;<font color="#008000">/outgoing/1</font>&#8216; 的访问数字就能知道点击这个外部链接的访问有多少了。 你还可以把&#8217;<font color="#008000">/outgoing/1</font>&#8216; 定义为一个目标(Goal)，在<strong>Google Analytics</strong>对目标的转化率<strong>Conversion Rate（转化率）</strong>，Goal Path（目标访问路径）等进行分析。</p>
<p>注：</p>
<p>1.这种跟踪方法在不支持或禁止javascript的客户端是无效的<br />
2.这种跟踪方法的前提是你必须在网页中安了<strong>Google Analytics</strong>统计代码</p>
]]></content:encoded>
					
					<wfw:commentRss>https://doyj.com/2007/11/17/feed/</wfw:commentRss>
			<slash:comments>1</slash:comments>
		
		
			</item>
		<item>
		<title>在线统计 vs 日志分析 ( Page Tagging vs Log Analysis )</title>
		<link>https://doyj.com/2007/11/12/%e5%9c%a8%e7%ba%bf%e7%bb%9f%e8%ae%a1-vs-%e6%97%a5%e5%bf%97%e5%88%86%e6%9e%90-page-tagging-vs-log-analysis/</link>
					<comments>https://doyj.com/2007/11/12/%e5%9c%a8%e7%ba%bf%e7%bb%9f%e8%ae%a1-vs-%e6%97%a5%e5%bf%97%e5%88%86%e6%9e%90-page-tagging-vs-log-analysis/#comments</comments>
		
		<dc:creator><![CDATA[oldmonk]]></dc:creator>
		<pubDate>Mon, 12 Nov 2007 14:17:14 +0000</pubDate>
				<category><![CDATA[IT]]></category>
		<category><![CDATA[google]]></category>
		<category><![CDATA[Google-Analytics]]></category>
		<category><![CDATA[log-analysis]]></category>
		<category><![CDATA[web-analytics]]></category>
		<category><![CDATA[日志分析]]></category>
		<category><![CDATA[网站流量分析]]></category>
		<guid isPermaLink="false">http://www.doyj.com/2007/11/12/</guid>

					<description><![CDATA[网站流量分析(Web Analytics)的工具分为两大类， 一类是以Google Analytics为代表的 &#8230; <a href="https://doyj.com/2007/11/12/%e5%9c%a8%e7%ba%bf%e7%bb%9f%e8%ae%a1-vs-%e6%97%a5%e5%bf%97%e5%88%86%e6%9e%90-page-tagging-vs-log-analysis/"... ]]></description>
										<content:encoded><![CDATA[<p><strong>网站流量分析</strong>(<strong>Web Analytics</strong>)的工具分为两大类， 一类是以Google Analytics为代表的<strong>在线统计</strong>系统， 英文称<strong>Page tagging</strong>。国内的武林榜，51yes，国外的Hitbox, Nielsen NetRatings, OneStat 都属于此类。这一类的重要特点是，分析时需要在里页面嵌入代码，这也是<strong>Page Tagging</strong>这个词的由来。 另一类就是<strong>日志分析</strong>，英文称<strong>Log Analysis</strong>， 特指web服务器的日志分析就是<strong>Web Log Analysis</strong>。 <strong>Nihuo Web Log Analyzer</strong>, <strong>awstats</strong>, <strong>analog</strong> 都属此类，这一类的特点是不用在页面嵌入代码，而是靠分析web 服务器产生的日志来生成统计报表。</p>
<p>经常有人问起这两种方法哪个更好，解释次数多了，自己都烦了，现在在这里统一回答一下。涉及到两类产品的比较时，就分别以<a href="http://www.google.com/analytics/">Google Analytics</a>( <a href="http://www.google.com/analytics/">http://www.google.com/analytics/</a> )和<a href="http://www.loganalyzer.net/">Nihuo Web Log Analyzer</a>( <a href="http://www.loganalyzer.net/">http://www.loganalyzer.net/</a> )为例了。</p>
<h2><strong>网站流量分析</strong>机制的差异</h2>
<h3><strong>在线网站流量统计</strong>(<strong>Page tagging</strong>)的实现机制</h3>
<p>Google Analytics需要在所有需要统计的页面中插入如下的Java Script统计代码，只有插入了代码的页面才能被统计，</p>
<p><script xsrc="http://www.google-analytics.com/urchin.js" type="text/javascript"><br />
</script><br />
<script type="text/javascript"><br />
_uacct = "UA-xxxxxx-x"; //统计帐号<br />
urchinTracker();<br />
</script></p>
<p>这段Java script做的工作如下：</p>
<ul>
<li>判断用户是不是第一次访问这个网站。它是通过cookie来判断， 如果特定Cookie不存在它就会认为是新用户，它会种一个用户标识的cookie，并在cookie中记录下用户第一次访问时的Refrrer，即来源网站。 如果是从搜索引擎过来的，它还会分离出用户搜索用的关键词并记录下来</li>
<li>判断用户是不是新的访问（New Visit)，并获取当前浏览的页面URL，标题，Referrer（来源网址），客户端信息（如屏幕分辨率，语言，flash版本，是否支持java ）</li>
<li>创建一个image对象，调用<a title="http://www.google-analytics.com/__utm.gif" href="http://www.google-analytics.com/__utm.gif">http://www.google-analytics.com/__utm.gif</a>，把上面所有的信息作为图像文件的参数传回去。这个图像文件其实就是1个像素的gif文件，而且这个像素还是透明的，在页面中是看不到的。</li>
</ul>
<p>其他的在线统计系统与Google Analytic有些细微的差别， 比如Nielsen NetRatings要求嵌入的javascript代码中还包含有如下代码：</p>
<p><noscript><br />
<img xsrc="//secure-cn.imrworldwide.com/cgi-bin/m?ci=cn-sina2006&amp;cg=0" alt=""><br />
</noscript></p>
<p>这确保了在javascript被禁止的客户端，用户的访问也能被统计。当然，这种情况下能统计的信息很有限了。关于这些在线系统实现方法上的一些细微差别做过专门研究，说起来就很长了，哪天有时间会单独写个文章讲这个话题。</p>
<h3><strong>日志分析</strong>(<strong>Web Log Analysis</strong>)的实现机制</h3>
<p>Web服务器在工作时会把所有用户发过来的请求和相应情况记录在文件里，这个文件就是日志文件。下面就是从<a title="http://www.loganalyzer.net/log-analysis-tutorial/log-file-sample-explain.html" href="http://www.loganalyzer.net/log-analysis-tutorial/log-file-sample-explain.html">http://www.loganalyzer.net/log-analysis-tutorial/log-file-sample-explain.html</a> 找到的一行日志：</p>
<p><span style="color: #0000ff;">111.111.111.111 &#8211; &#8211; [08/Oct/2007:11:17:55 -0400] &#8220;GET /support.html HTTP/1.1&#8221; 200 10801 &#8220;http://www.google.com/search?q=log+analyzer&amp;ie=utf-8&amp;oe=utf-8 &amp;aq=t&amp;rls=org.mozilla:en-US:official&amp;client=firefox-a&#8221; &#8220;Mozilla/5.0 (Windows; U; Windows NT 5.2; en-US; rv:1.8.1.7) Gecko/20070914 Firefox/2.0.0.7&#8221;</span></p>
<p>在这一行里包含了客户端IP（111.111.111.111），时间（[08/Oct/2007:11:17:55 -0400] ），请求方法（Get），请求文件（/support.html ），HTTP协议版本（HTTP/1.1），返回状态码（200，表示成功），文件大小（10801 ），Referrer信息（&#8221;http://www.google.com/search?q=log+analyzer&amp;ie=utf-8&amp;oe=utf-8 &amp;aq=t&amp;rls=org.mozilla:en-US:official&amp;client=firefox-a&#8221;），Agent信息&#8221;Mozilla/5.0 (Windows; U; Windows NT 5.2; en-US; rv:1.8.1.7) Gecko/20070914 Firefox/2.0.0.7&#8243;）。具体如何详细解读日志会另文阐述，在这里只是展示一下日志中都包含什么信息。</p>
<p>Nihuo Web Log Analyzer就是靠读入日志文件在本地进行统计计算而得出最终报表的。在大部分Web日志文件中，都是靠IP来判断访问者。Nihuo Web Log Analyzer也可以通过Cookie识别用户，但需要在日志中首先输出Cookie信息。</p>
<h2><strong>在线统计</strong>与<strong>日志分析</strong>的优缺点比较</h2>
<p>上面费比较多的笔墨说两者的实现机制，就是为了大家能更好理解这一段，因为两种方法的优缺点都是由他们的实现机制决定的。</p>
<h3><strong>在线网站流量统计</strong>(<strong>Page tagging</strong>)的优点</h3>
<ul>
<li>通过Cookie识别访问者，比依靠IP识别要更准确。因为通过IP识别用户在遇到很多用户通过代理服务器（比如网吧）时就会不准确。而且当用户过几天后再访问时，通过Cookie能很好的识别这是已经来过的用户。而日志分析以IP识别用户时，因为用户每次上网拨号可能会被动态分配不同的IP，就会比较难准确判断返回用户。</li>
<li>能通过javascript搜集到一些通过日志不能搜集到的客户端信息，屏幕分辨率，语言，flash版本，是否支持java 等</li>
<li>使用方便，只要在所有页面插入了统计代码，以后每次直接看报表即可</li>
<li>可以做第三方统计， 比如你在blogspot.com开了一个blog，而blogspot是不可能把他们的web日志提供给你的，这时候没有别的选择，只能是用在线统计系统。</li>
</ul>
<h3><strong>在线网站流量统计</strong>(<strong>Page tagging</strong>)的缺点</h3>
<ul>
<li>当客户端禁止Javascript或禁止Cookie时，都会影响统计结果，要么是完全统计不到，要么是出现错误的统计</li>
<li>存在一定误差，因为在线统计是通过javascript把客户端信息搜集起来再传回服务器实现统计，有时因为网络的延迟，会出现没有统计到的情况。而且和页面的载入速度也有关系，把代码加在页面代码顶部或尾部统计结果都是会有差异的。</li>
<li>不能统计用户对图像，视频，音频等文件的访问，因为这些文件不能插入统计代码</li>
<li>不能统计带宽信息</li>
<li>统计信息被第三方掌握，有安全上的危险</li>
</ul>
<h3><strong>日志分析</strong>(<strong>Web Log Analysis</strong>)的优点</h3>
<ul>
<li>没有网络延迟的问题，统计准确</li>
<li>可以统计网络蜘蛛（spider ,bot)的访问，这对于做SEO比较重要</li>
<li>能够统计非页面文件，如图像，flash文件等等</li>
<li>客户端禁止了Javascript和Cookie也不影响统计的结果</li>
<li>能够采用丰富的过滤器(Filter)进行数据挖掘（Data mining)，可以从多角度分析网站流量和用户的访问行为。一些在线统计也支持Filter, 比如Google Analytics，但是一旦应用过滤器最终数据就被改变，原始数据是找不回来的。</li>
<li>可以多域名的日志放在一起分析，在线统计系统对用户的标识是基于Cookie的，而Cookie是不能跨域名的，在这方面日志分析有天然的优势。</li>
<li>安全，分析数据是由你自己掌握的</li>
</ul>
<h3><strong>日志分析</strong>(<strong>Web Log Analysis</strong>)的缺点</h3>
<ul>
<li>使用比较麻烦，每次要分析日志，而且有的还要配置web服务器以输出合适的日志。</li>
<li>用IP追踪用户不如Cookie准确。 不过这个问题可以通过在Web服务器上添加插件或模块来解决。Apache需要添加<a href="http://httpd.apache.org/docs/2.0/mod/mod_usertrack.html" target="_blank" rel="noopener">mod_usertrack</a>模块，并在日志中输出cookie信息。IIS可以装ISAPI的插件（自己用VC6写了一个，可以从<a href="http://www.doyj.com/downloads/cookiefilter.dll">http://www.doyj.com/downloads/cookiefilter.dll</a> 下载，不过这个当时只是写来测试的，出了什么问题可别怪我 ）。也可通过javascript，php，asp等语言给客户端种植cookie，这讲起来就长了，大家可以google相关资料看看。</li>
<li>搜集的客户端信息不如Page Tagging丰富，象flash版本，是否安装java之类从日志是看不出来的</li>
<li>日志的存储管理也是挺头痛的事，尤其是当每天都产生几十G日志的时候。</li>
</ul>
<p>经常有人问这两种方式哪个更好，应该选择哪种，这让我很难回答。 因为这两种方式都各有所长各有所短，只用一种方法很难准确完整的了解网站流量的的全貌，我自己做分析时两种工具都使用的，两个报告互相参考着看，也推荐大家采用这个方式。</p>
<p>注：这篇文章借鉴了一些 <a title="http://www.kichus.in/2006/09/23/log-file-analysis-page-tagging/" href="http://www.kichus.in/2006/09/23/log-file-analysis-page-tagging/">http://www.kichus.in/2006/09/23/log-file-analysis-page-tagging/</a> 的内容</p>
]]></content:encoded>
					
					<wfw:commentRss>https://doyj.com/2007/11/12/%e5%9c%a8%e7%ba%bf%e7%bb%9f%e8%ae%a1-vs-%e6%97%a5%e5%bf%97%e5%88%86%e6%9e%90-page-tagging-vs-log-analysis/feed/</wfw:commentRss>
			<slash:comments>7</slash:comments>
		
		
			</item>
		<item>
		<title>网站流量分析 (Web analytics) 水平分级</title>
		<link>https://doyj.com/2007/11/08/</link>
					<comments>https://doyj.com/2007/11/08/#comments</comments>
		
		<dc:creator><![CDATA[oldmonk]]></dc:creator>
		<pubDate>Wed, 07 Nov 2007 10:13:44 +0000</pubDate>
				<category><![CDATA[IT]]></category>
		<category><![CDATA[google]]></category>
		<category><![CDATA[Google-Analytics]]></category>
		<category><![CDATA[log-analysis]]></category>
		<category><![CDATA[web-analytics]]></category>
		<category><![CDATA[日志分析]]></category>
		<category><![CDATA[网站流量分析]]></category>
		<guid isPermaLink="false">http://www.doyj.com/2007/11/08/</guid>

					<description><![CDATA[记得自己最早的网站流量分析（Web analytics) 是1997年左右的时候，当时网易开放40M免费个人网 &#8230; <a href="https://doyj.com/2007/11/08/" class="more-link">继续阅读<span class="screen-reader-text">网站流量分析 (We... ]]></description>
										<content:encoded><![CDATA[<p>记得自己最早的<strong>网站流量分析</strong>（<strong>Web analytics</strong>) 是1997年左右的时候，当时网易开放40M免费个人网页空间的申请，自己也申请了一个，再去网上找了个免费的计数器挂上去。 然后每天看着计数器的跳动激动不已，其实一大半是自己刷出来的。这就算是最早的<strong>网站流量分析</strong>了吧。</p>
<p>开发<a title="日志分析" target="_blank" href="http://www.loganalyzer.net/cn">日志分析软件</a>这些年来，接触了不少国内的网站，对国内网站的流量分析有个大致的了解。下面据此对网站流量分析的水平划分出几个等级，大家可以对照看看自己属于哪个等级。</p>
<blockquote>
<h2>菜鸟级的网站流量分析 (No web analytics)</h2>
<p>这个水平的就是什么统计分析都不做， 自己站点的访问量大约是什么数量级都不知道。对<strong>uv</strong>,<strong> pv</strong>, <strong>unique ip</strong>这些基础概念都一问三不知。一些个人站点这样还情有可原，可很多企业，政府网站居然也这样就说不过去了。</p></blockquote>
<blockquote>
<h2>入门级的网站流量分析 (Junior web analytics)</h2>
<p>到了这级已经知道了<strong>网站流量统计</strong>的基本概念，已经懂得在自己网页上插入<a target="_blank" href="http://www.50bang.com">武林榜</a>( <a title="http://www.50bang.com" target="_blank" href="http://www.50bang.com">http://www.50bang.com</a> ), <a target="_blank" href="http://count.51yes.com">51yes</a> ( <a title="http://count.51yes.com" target="_blank" href="http://count.51yes.com">http://count.51yes.com</a> )之类的在线统计代码，或者隔三岔五看看虚拟主机用开源软件（比如<a target="_blank" href="http://awstats.sourceforge.net">awstat</a>( <a title="http://awstats.sourceforge.net" target="_blank" href="http://awstats.sourceforge.net">http://awstats.sourceforge.net</a> ), <a target="_blank" href="http://www.analog.cx">analog</a>( <a title="http://www.analog.cx" target="_blank" href="http://www.analog.cx">http://www.analog.cx</a> ), <a target="_blank" href="http://www.mrunix.net/webalizer">webalizer</a>( <a title="http://www.mrunix.net/webalizer" target="_blank" href="http://www.mrunix.net/webalizer">http://www.mrunix.net/webalizer</a> )) 分析出来的<strong>日志分析</strong>报表。这一级别的人知道光看pv不行，还要看uv和unique ip。 懂得看Referrer(来源网站)报表，研究Search Phrase(搜索关键词）报表。他们能根据看到的报告，及时调整自己网站的内容及经营策略。比如发现uv少了，就加大推广力度；发现搜索引擎过来的人少了，就做SEO；看地域统计报告，发现广东过来人少了，就赶紧安排一些针对广东的弹窗广告之类。国内的网站大都是这个级别。</p></blockquote>
<blockquote>
<h2>高手级的网站流量分析 (Master of web analytics)</h2>
<p>这个级别和入门级最重要的差别在于， 入门级的人关心有多少人到了自己的网站， 而高手级的人还懂得关心，甚至更关心：人们到自己的网站都干了什么。也就是说他们懂得<strong>用户行为分析</strong> (<strong>Visitor behavior analysis</strong>) 的重要性。使用的工具中，国内那些简单的在线统计网站早就被剔除了，使用的是<a title="Web Analytics" target="_blank" href="http://www.google.com/analytics/">Google Analytics</a>( <a title="http://www.google.com/analytics/" target="_blank" href="http://www.google.com/analytics/">http://www.google.com/analytics/</a> )，及收费的<a title="Online Web Statistic" target="_blank" href="http://www.nielsen-netratings.com/">Nielsen NetRatings</a>( <a title="http://www.nielsen-netratings.com/" target="_blank" href="http://www.nielsen-netratings.com/">http://www.nielsen-netratings.com/</a> )等在线统计系统， 同时还采用<a title="web log analyzer" target="_blank" href="http://www.loganalyzer.net/">Nihuo Web Log Analyzer</a>( <a title="web analytics software" target="_blank" href="http://www.loganalyzer.net/">http://www.loganalyzer.net/</a> )等专业的日志分析器，做到在线统计与日志分析相结合 。 他们分析的也不只是流量，而是包括网站内容，<strong>网站链接结构</strong>，SEO等多方面的数据；做的不再只是<strong>网站流量分析</strong> (<strong>web traffic analytics</strong>) 而是进化成整体的<strong>网站分析</strong> (<strong>web analytics</strong>)。他们关注用户的访问路径；关注每个关键词过来的流量在登录页面，<strong>Bounce rate</strong>（<strong>弹出率</strong>），<strong>停留时间</strong>，访问路径等等指标上的细微不同；对一些重要页面进行单独的Tracking（跟踪），关注这些页面的每个细节； 他们还能熟练使用各种<strong>filter</strong>（<strong>过滤器</strong>），能在几M到上百G的日志中进行<strong>数据挖掘</strong>工作，从中挖掘出有价值的数据；他们能轻易判断报表上反映的问题是技术问题，还是网页设计问题，还是网站推广问题。 他们的眼睛能透过报表上纷繁的数字，看到数字背后的真相。</p></blockquote>
<blockquote>
<h2>专家级的网站流量分析 (Expert of web analytics)</h2>
<p>专家级的人已经不满于现有的各种工具和指标，他们会针对自己的网站特点，提出一些很有针对性的新指标，他们会为自己的网站开发极有针对性的分析系统，甚至开发自己的日志系统。他们不只是看到数据背后的真相，而是会自己主动发掘新的数据，并把自己的网站变成<strong>数据驱动</strong>（<strong>Data Driven</strong>）型的网站。网站的每个设计，每个推广活动，每个决策，不是拍脑子想出的结果，不是开无聊会议的结果，而都是有强大的分析数据来支持。 每个决策的效果又能及时统计分析，变成数据再反馈回来，让网站及时调整决策，乃至改进整个数据分析的流程和方法。</p></blockquote>
<blockquote>
<h2>最高级 &#8211; 仙级的网站流量分析 (God of web analytics)</h2>
<p>他们从专家级中走过来，从<strong>网站分析 </strong>(<strong>web analytics</strong>) 中看到的已不只是对过去的总结，还能从中能看到将来<strong>变化的趋势</strong>，并帮助网站提前把握这种趋势；他们不只是看自己网站的分析，还看竞争对手，同行业乃至整个互联网的情况，并根据掌握的这些情况对自己网站的流量做出更合理的分析解释，并做相应调整；他们有广博的知识，能把其他方面的知识应用到分析中来，了解社会及自然界发生的一些事情可能对网站流量的影响；他们对网站流量分析有着自己独到的见解；他们在公司里是传播分析思想与方法的中心人物；他们不只是对分析技术，而且对整个网站的机制和涉及到的技术都有深入的理解；他们是一个网站走向成功的重要保证。</p></blockquote>
<p>国内这方面的水平还比较低。在国外很多公司在招专业的<strong>网站分析员</strong>（<strong>Web analyst</strong>），而在国内的<a target="_blank" href="http://www.51job.com">51job</a>( <a title="http://www.51job.com" target="_blank" href="http://www.51job.com">http://www.51job.com</a> )找不到这个职位的招聘。 国内很多网站把网站流量分析当作是网管附带的工作，不要说专职的部门，连专职的分析人员也没有。有时还不止是缺乏数据分析的问题，不少网站还热衷于制造数据，比如<a target="_blank" href="http://www.alexa.com">alexa</a>( <a title="http://www.alexa.com" target="_blank" href="http://www.alexa.com">http://www.alexa.com</a> )排名之类，对这些网站说重视数据分析，说从流量数据分析中挖掘出金矿无异于对牛弹琴。</p>
<p>但有理由对将来保持乐观，将来一个网站如果要成功，没有好的网站分析员是不可想象的。已经在国内见到有专家级甚至快成仙得道的大侠，见到过国内网站内部开发的超强统计分析系统，而且看到这样的大侠和这样有远见的网站有越来越多的趋势。国内将来不仅会有成批专职的网站分析员，而且这个职业可能成为下一个热门高薪职业。 登陆<a target="_blank" href="http://www.google.com/analytics/">Google Analytics</a>( <a title="http://www.google.com/analytics/" target="_blank" href="http://www.google.com/analytics/">http://www.google.com/analytics/</a> )的时候会看到有Analytic Authorized Consultant的标志，全世界已经有了很多获得这个认证的<a title="web analyst partner" target="_blank" href="http://www.google.com/analytics/support_partner_provided.html">分析顾问</a>( <a title="http://www.google.com/analytics/support_partner_provided.html" href="http://www.google.com/analytics/support_partner_provided.html">http://www.google.com/analytics/support_partner_provided.html</a> )，其中中国已经有了一家，相信会越来越多。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://doyj.com/2007/11/08/feed/</wfw:commentRss>
			<slash:comments>4</slash:comments>
		
		
			</item>
		<item>
		<title>终于准确知道顾客是从哪里来的了</title>
		<link>https://doyj.com/2007/11/05/</link>
					<comments>https://doyj.com/2007/11/05/#comments</comments>
		
		<dc:creator><![CDATA[oldmonk]]></dc:creator>
		<pubDate>Mon, 05 Nov 2007 15:19:20 +0000</pubDate>
				<category><![CDATA[IT]]></category>
		<category><![CDATA[log-analysis]]></category>
		<category><![CDATA[web-analytics]]></category>
		<category><![CDATA[日志分析]]></category>
		<category><![CDATA[网站流量分析]]></category>
		<guid isPermaLink="false">http://www.doyj.com/2007/11/05/</guid>

					<description><![CDATA[说顾客从哪里来，不是指顾客居住的地理位置， 而是指顾客找到我的产品，我的网站的方式。 最终付费的顾客是通过搜索 &#8230; <a href="https://doyj.com/2007/11/05/" class="more-link">继续阅读<span class="sc... ]]></description>
										<content:encoded><![CDATA[<p>说顾客从哪里来，不是指顾客居住的地理位置， 而是指顾客找到我的产品，我的网站的方式。 最终付费的顾客是通过搜索引擎找到的，还是通过在哪个站点投放的广告， 还是通过adwords。这是我一直最关心的问题，也用了各种方法去分析，比如网页里插入<a target="_blank" href="http://www.google.com/analytics/">Google Analytic</a>的统计代码，用<a target="_blank" href="http://www.loganalyzer.net/">web log analyzer</a> 分析自己网站的日志，但因为自己的共享软件是通过<a target="_blank" href="http://www.regsoft.com">regsoft</a>, <a target="_blank" href="http://www.regnow.com">regnow</a>等注册服务提供商来完成，当用户最终确认付款时，已经离开了我的软件站点页面，Google Analytic和日志都不能确认这个用户是否付款。 很多时候把钱扔到各种推广方式上，但对每种推广方式能有什么具体效果则心里一点数也没有，只要月底一算账收入增长了，就觉得推广的方式还是有用。 如果下降了， 就不管有用没用，所有推广方式全给砍掉。</p>
<p>前天痛感这种状态不能再继续，于是自己修改了一下google analytic的代码来实现对顾客来源的跟踪。 Google Analytic会在客户端种植几个cookie，最有用的是__utmz， 记录了用户的来源信息，通过搜索引擎过来的用户还能找出关键词。但有个问题是，不能区分正常搜索结果过来的用户和通过<a target="_blank" href="https://adwords.google.com">adwords</a>广告过来的用户。 这就需要自己做点工作了。</p>
<blockquote><p>1.adwords广告的目标url设置特殊参数， 我就设定为 /index.html?ref=adwords</p>
<p>2.在index.html加入如下javascript代码  ，种植_isadwords cookie</p>
<p><coolcode lang="javascript"><br />
var _isadwords;</p>
<p>_isadwords= _uGC(document.cookie, &#8216;_isadwords=&#8217;, &#8216;;&#8217;);</p>
<p>//判断是否cookie中已经存在isadwords字段，如果不存在就设置此字段<br />
if( !_isadwords|| _isadwords== &#8220;-&#8221; )<br />
{</p>
<p>//判断是不是adwords过来的用户<br />
if( window.location.href.indexOf( &#8220;/index.html?ref=adwords &#8221; ) &gt; 0 )<br />
_isadwords= &#8220;1&#8221; ;<br />
else<br />
_isadwords= &#8220;0&#8221; ;</p>
<p>document.cookie=&#8221;_isadwords=&#8221;+_isadwords+ &#8220;; expires=&#8221; + _uNx()+&#8221;;&#8221;;<br />
}</p>
<p></coolcode><br />
这其中 _uGC()和_uNx()都是google analytic 的 script中提供的函数。_uGC()是在第一个参数中寻找以第二个参数开头，第三个参数结尾的子串。 _uNx()则是返回当前时间一年以后的时间，用做cookie的过期时间。</p></blockquote>
<p>种下了cookie，剩下的问题就是怎么读出来了。先下载<a href="http://www.doyj.com/images/a.gif">http://www.doyj.com/images/a.gif</a>, 上载到你的站点图像目录里。 a.gif是一个只有一个透明像素的gif图像文件。然后在产品购买页面嵌入如下代码：</p>
<blockquote><p><coolcode lang="javascript"></p>
<p>var _urefgifpath=&#8221;http://www.doyj.com/images/a.gif&#8221;;  //这里要换成你的图像链接</p>
<p>var zx = _uGC(document.cookie, &#8216;__utmz=&#8217;, &#8216;;&#8217;);   //取出__utmz cookie<br />
var _isadwords=_uGC(document.cookie, &#8216;_isadwords=&#8217;, &#8216;;&#8217;);</p>
<p>var i3=new Image(1,1);<br />
i3.src=_urefgifpath+&#8221;?&#8221;+&#8221;utmz=&#8221; + zx + &#8220;_isadwords=&#8221; + _isadwords + &#8220;&#038;utmn=&#8221;+_uu;<br />
i3.onload=function() { _uVoid(); }</p>
<p></coolcode></p>
<p>代码中的_uu是google analytic中生成的一个随机数，=Math.round(Math.random()*2147483647);， 这是为了保证每次url都是不一样，客户端不会缓存对这个图像文件的访问。代码中的_uVoid()也是google analytic中的一个空函数。</p>
<p>这段代码其实就是new 出一个图像文件， 把cookie信息做为这个图像的参数返回给服务器，这样在日志中就会留下用户的cookie信息。因为这个图像文件是一个透明像素，并且是在javascript中new出来的，所以在页面中是不可见的。</p></blockquote>
<p>因为在订单中有用户的ip, 每收到一个订单， 就可以去日志中去查找这个ip， 再查找这个ip访问a.gif时留下的参数，就能知道这个用户从哪里过来的了。</p>
<p>后记：写在这里的方法已经比我当时采用的方法又改进了一些， 当初想的方法，那是&#8230;&#8230;&#8230;&#8230;相当的蠢。 改进后的方法依然不好，还要去看日志文件，很麻烦，但至少实现了追踪用户来源的功能。方法还有很多改进余地，我这是抛砖引玉，先提出这么个思路，欢迎大家指正。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://doyj.com/2007/11/05/feed/</wfw:commentRss>
			<slash:comments>5</slash:comments>
		
		
			</item>
		<item>
		<title>购买流量总结</title>
		<link>https://doyj.com/2007/10/09/%e8%b4%ad%e4%b9%b0%e6%b5%81%e9%87%8f%e6%80%bb%e7%bb%93/</link>
					<comments>https://doyj.com/2007/10/09/%e8%b4%ad%e4%b9%b0%e6%b5%81%e9%87%8f%e6%80%bb%e7%bb%93/#comments</comments>
		
		<dc:creator><![CDATA[oldmonk]]></dc:creator>
		<pubDate>Tue, 09 Oct 2007 07:06:52 +0000</pubDate>
				<category><![CDATA[IT]]></category>
		<category><![CDATA[log-analysis]]></category>
		<category><![CDATA[web-analytics]]></category>
		<category><![CDATA[日志分析]]></category>
		<category><![CDATA[网站流量分析]]></category>
		<guid isPermaLink="false">http://www.doyj.com/2007/10/09/</guid>

					<description><![CDATA[上个星期翻到一些帖子说起购买流量的事，就去google搜了几个站看了看，看着也花不了多少钱，就先找两个便宜的试 &#8230; <a href="https://doyj.com/2007/10/09/%e8%b4%ad%e4%b9%b0%e6%b5%81%e9%87%8f%e6%80%bb%e7%bb%93/... ]]></description>
										<content:encoded><![CDATA[<p>上个星期翻到一些帖子说起购买流量的事，就去google搜了几个站看了看，看着也花不了多少钱，就先找两个便宜的试了试，一个是 needhits.net, 一个是buyhitscheap.com。</p>
<p>这两天分析了一下从他们来的流量，虽然还没完全结束，但已然有些心得。国内这方面有经验的人应该不少，轮不到我来分享经验，不过看大牛们似乎很忙，很少有空分享，我这菜鸟就出来抛砖引玉了。<br />
1. 买的都是专门针对美国的流量，这两边来的流量ip分布都比较广，分析出的结果绝大部分都是美国，这点还满意。</p>
<p>2. 在needhits购买流量时，可以指定只要从美国过来的特定种类人群的流量。当时购买了和自己产品密切相关的分类，可是从它那里过来的流量，一般只访问完首页就走了， 首页的bounce rate达到99.73% ( 正常情况下首页的boun rate为30%左右）， 更奇怪的是剩下的那0.27%, 访问路径几乎一致， 都没有查看订购或下载页面. 而且时间的访问分布曲线也非常奇怪，没有一般凌晨访问很少的情况，波动范围不大(如下图）。<br />
<a href="http://www.doyj.com/wp-content/uploads/2007/10/image1.png"><img loading="lazy" decoding="async" style="border: 0px none;" src="http://www.doyj.com/wp-content/uploads/2007/10/image_thumb1.png" alt="image" width="600" height="300" border="0" /></a></p>
<p>3. Buyhitscheap过来的流量，首页的bounrate在46.28%，时间部分曲线看着貌似正常（如下图）：</p>
<p><a href="http://www.doyj.com/wp-content/uploads/2007/10/image2.png"><img loading="lazy" decoding="async" style="border: 0px none;" src="http://www.doyj.com/wp-content/uploads/2007/10/image_thumb2.png" alt="image" width="600" height="300" border="0" /></a></p>
<p>但有意思的来了，从Buyhitscheap过来的流量，来回就访问三个页面文件，访问路径都特别相似，而且这三个文件都不是下载或购买页面。其中有个是sitemap页面，这在正常的访问中只有1.12%的人会去访问，但在Buyhitscheap过来流量中，居然有25.28%的人访问。</p>
<p>总结：从统计来看，这两处购买的流量都完全没有用，而且很有骗子的嫌疑。</p>
<p>不对之处请大牛们多指正，如有其他可信的流量购买，还请不吝相告。</p>
<p>另：损失了40美刀，简直五内俱焚，心痛莫名，正在努力工作争取早日挣回这40美刀。有谁要请吃烧烤别忘了叫上我，现正需要烤肉来抚慰我受伤的心灵。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://doyj.com/2007/10/09/%e8%b4%ad%e4%b9%b0%e6%b5%81%e9%87%8f%e6%80%bb%e7%bb%93/feed/</wfw:commentRss>
			<slash:comments>14</slash:comments>
		
		
			</item>
		<item>
		<title>最牛犇的移动信号覆盖</title>
		<link>https://doyj.com/2007/08/25/</link>
					<comments>https://doyj.com/2007/08/25/#comments</comments>
		
		<dc:creator><![CDATA[oldmonk]]></dc:creator>
		<pubDate>Sat, 25 Aug 2007 15:59:17 +0000</pubDate>
				<category><![CDATA[IT]]></category>
		<category><![CDATA[旅行]]></category>
		<guid isPermaLink="false">http://www.doyj.com/2007/08/25/</guid>

					<description><![CDATA[半个月前去了趟陕西，西安周围转了转，其中有乾陵的一个陪葬墓：懿德太子墓。 进入墓道前发现墓道口有个卷帘门，仔细 &#8230; <a href="https://doyj.com/2007/08/25/" class="more-link">继续阅读<span class="... ]]></description>
										<content:encoded><![CDATA[<p>半个月前去了趟陕西，西安周围转了转，其中有乾陵的一个陪葬墓：懿德太子墓。 进入墓道前发现墓道口有个卷帘门，仔细一看，上贴一蓝色小条：</p>
<p>&nbsp;</p>
<p><a href="http://www.doyj.com/wp-content/uploads/2007/08/DSCN2193.jpg" atomicselection="true"><img loading="lazy" decoding="async" style="border-right: 0px; border-top: 0px; border-left: 0px; border-bottom: 0px" height="360" alt="DSCN2193" src="http://www.doyj.com/wp-content/uploads/2007/08/DSCN2193_thumb.jpg" width="480" border="0"></a> </p>
<p><a href="http://www.doyj.com/wp-content/uploads/2007/08/DSCN2194.jpg" atomicselection="true"><img loading="lazy" decoding="async" style="border-right: 0px; border-top: 0px; border-left: 0px; border-bottom: 0px" height="480" alt="DSCN2194" src="http://www.doyj.com/wp-content/uploads/2007/08/DSCN2194_thumb.jpg" width="360" border="0"></a> </p>
<p>上书：“中国移动通信 网络信号已覆盖本电梯”。（开头想坟墓不是电梯，后来一想把坟墓理解成通向天堂或地狱的“电梯”也不算错。）</p>
<p>就冲这种把信号覆盖到死人“电梯”里的精神劲，联通注定了将是中移动的手下败将！</p>
<p>中移动，I服了U!</p>
]]></content:encoded>
					
					<wfw:commentRss>https://doyj.com/2007/08/25/feed/</wfw:commentRss>
			<slash:comments>6</slash:comments>
		
		
			</item>
		<item>
		<title>100% VS 99.9%</title>
		<link>https://doyj.com/2007/08/16/100-vs-999/</link>
					<comments>https://doyj.com/2007/08/16/100-vs-999/#comments</comments>
		
		<dc:creator><![CDATA[oldmonk]]></dc:creator>
		<pubDate>Thu, 16 Aug 2007 14:55:25 +0000</pubDate>
				<category><![CDATA[IT]]></category>
		<category><![CDATA[生活]]></category>
		<guid isPermaLink="false">http://www.doyj.com/2007/08/16/100-vs-999/</guid>

					<description><![CDATA[以前开发一个数据挖掘软件的时候遇到一个问题，如果要保证结果的100%准确，需要的计算量和数据量很大，而且规模随 &#8230; <a href="https://doyj.com/2007/08/16/100-vs-999/" class="more-link">继续阅读<span cl... ]]></description>
										<content:encoded><![CDATA[<p>以前开发一个数据挖掘软件的时候遇到一个问题，如果要保证结果的100%准确，需要的计算量和数据量很大，而且规模随采样数据量的增长而线性增长，在一些极端情况下几乎完全不可行。被这个问题困扰了很久，后来在小马提醒下才恍然大悟，其实客户并没有要求100%精确，一定的误差是可以接受的。立刻修改了算法，提供给用户误差率在正负0.1%以下的结果，这样计算量和数据量都减少很多，而且对采样数据量的增长不敏感，在极端情况下也完全能保持在可接受的规模。</p>
<p>记得以前看到过一句话，大意是说：“追求完美往往是通向好的最大敌人”，经过这件事后对这句话有了更深的体会。 很多时候不用去痛苦地追求过分的完美，只要稍微退一小小步，立刻就会觉得海阔天空。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://doyj.com/2007/08/16/100-vs-999/feed/</wfw:commentRss>
			<slash:comments>2</slash:comments>
		
		
			</item>
		<item>
		<title>技术带来的震撼感觉</title>
		<link>https://doyj.com/2007/07/04/</link>
					<comments>https://doyj.com/2007/07/04/#comments</comments>
		
		<dc:creator><![CDATA[oldmonk]]></dc:creator>
		<pubDate>Tue, 03 Jul 2007 18:36:08 +0000</pubDate>
				<category><![CDATA[IT]]></category>
		<guid isPermaLink="false">http://www.doyj.com/2007/07/04/</guid>

					<description><![CDATA[大概是受工程师父亲的影响，从小就对技术的东西特别有兴趣，尤其是一些新的技术，经常能让我惊叹，其中特别杰出的就不 &#8230; <a href="https://doyj.com/2007/07/04/" class="more-link">继续阅读<span class... ]]></description>
										<content:encoded><![CDATA[<p>大概是受工程师父亲的影响，从小就对技术的东西特别有兴趣，尤其是一些新的技术，经常能让我惊叹，其中特别杰出的就不只是惊叹了，而是完全震撼的感觉。</p>
<p>最早带来这种震撼感觉的是父亲实验室中的长城0520计算机，看着一条basic语句就打印出了自己的名字，很震撼的感觉:D, 等到第一次看到电脑游戏的时候那就嘴都合不拢了。</p>
<p>堪与第一次震撼相比的就是第一次见到Windows了。当时刚刚开始学计算机，学的还都是dos,  Windows听都没听过。一次偶尔用实验室的386的时候，看到了Windows 3.1，当时彻底傻掉了。它带给我们一种完全没听说过的操作计算机的方式。当时感觉Windows 3.1画面特别美，而且这个印象保持了很久，当Win95推出后，很长时间看不惯95的画面。</p>
<p>也是这一次看到了第一个震撼我的游戏：Wolf 3D。 以前在红白机，街机厅看到的都是二维平面的画面，第一次看到3D画面（尽管是伪3D)，游戏的感觉有了天翻地覆的变化。</p>
<p>能同样震撼我的游戏，甚至更震撼的，就是diablo了。还记得97年一天晚上下班后，看 到了diablo的片头动画和只有一关的演示版，当时整屋的人都被镇住了。极精美的画面，完美的配乐，完美的气氛，制作水平大大超出了那个时代所有的其他游戏。当时还很难相信bllizard 仅用了256色的画面就实现了这么精美的画面，后来差不多完全明白其中的技术诀窍后，对diablo的程序员真是佩服的五体投地。</p>
<p>第一个给我震撼感觉的开发工具就是Turbo Pascal , 图形化的界面，方便的调试功能，强大的编辑器，超快的编译速度，让刚从fortran过来的我有种从地狱直升天堂的感觉 （ 当时的fortran只能命令行下手工编译，要编译两次，还要链接一次才能生成执行文件，调试只能用print 。编辑时用行编辑器，苦不堪言)。 等到开始用Windows下的Visual C++ 1.0的时候，又经历了一次从地狱直升天堂。</p>
<p>Internet带给我的震撼不是最强的也是最强的之一。96年的时候只是看报纸上提到过Internet, 自己完全不知这是何物， 12月的时候公司里买了个14.4kbps的猫，还记得浏览的第一个网站是yahoo.com。 上了Internet才发现，之前的我象是一个坐井观天的小青蛙，而Internet让我跳了出来看到这真正的世界（当然也可能只是从一个小井跳到了一个大一点的井而已）。</p>
<p>如果再说一个，那就是Google。 开始用google搜索并没有带给我什么震撼，而是当google发布了一些列的服务，慢慢明白了他的蓝图，明白他瞄准的方向时，真的有点震撼了。国内还 老说百度和google竞争，要我说这就是燕雀和鸿鹄的比较，两者的志向差得太大了。google会成为我们世界的主宰么？ 我们以后会生活在google建立的Matrix内么？拭目以待吧。</p>
<p>不知道是不是Internet带来的震撼太强，大大提高了震撼阈值，其他就绝少有技术能带来震撼的感觉了。有些小震撼，比如看到Delphi，softice, icq，看到3DS MAX，看到第一个3D加速卡Voodoo, 看到Ultra 64模拟器，看到Zelda 时之笛，看到Linux, 看到Play Station，看到英法海底隧道的挖掘机，等等等，都曾带给我一些惊叹，但和前面这些天翻地覆的震撼则完全不能相比。</p>
<p>震撼越来越少，是这个世界创意枯竭了，还是自己麻木了？ 下一个震撼会在哪里呢？</p>
]]></content:encoded>
					
					<wfw:commentRss>https://doyj.com/2007/07/04/feed/</wfw:commentRss>
			<slash:comments>2</slash:comments>
		
		
			</item>
		<item>
		<title>过去的未来</title>
		<link>https://doyj.com/2007/05/04/</link>
					<comments>https://doyj.com/2007/05/04/#comments</comments>
		
		<dc:creator><![CDATA[oldmonk]]></dc:creator>
		<pubDate>Fri, 04 May 2007 15:23:43 +0000</pubDate>
				<category><![CDATA[IT]]></category>
		<category><![CDATA[生活]]></category>
		<guid isPermaLink="false">http://www.doyj.com/2007/05/04/</guid>

					<description><![CDATA[小时候特别喜欢看科幻小说，当时杂七杂八看了不少，但现在有印象的好像就是《小灵通漫游未来》。现在回想起当时科幻小 &#8230; <a href="https://doyj.com/2007/05/04/" class="more-link">继续阅读<span class... ]]></description>
										<content:encoded><![CDATA[<p>小时候特别喜欢看科幻小说，当时杂七杂八看了不少，但现在有印象的好像就是《小灵通漫游未来》。现在回想起当时科幻小说里的假象，有不少现在已经实现了。 </p>
<p>&nbsp;</p>
<p>1. 一种手表，靠无线信号来校准时钟，永远是准的。 其实cdma手机的时钟，和gps设备上的时钟就有这个意思</p>
<p>2. 图书的缩微胶片查询。记得是《小灵通》里提到的，我在90年代初去专利局查资料的时候就是用的缩微胶片，现在随着电脑，光盘，互联网等技术的发展，缩微胶片早就被淘汰了。 </p>
<p>3. 可视电话。 各种im的视频聊天要比可视电话方便多了。 </p>
<p>4. 电子报纸。现在我每天早晨第一件事就是去看看新浪的标题新闻，再翻翻google reader</p>
<p>5. 壁挂式的显示屏。 现在满商场的液晶和等离子电视。 </p>
<p>6. 比人聪明的电脑。 如果就计算能力和国际象棋而论，电脑已经比人聪明多了，其他方面还差的远，可以说是实现了一小步分。 </p>
<p>&#8230;&#8230;&#8230;&#8230;&#8230;&#8230;</p>
<p>&nbsp;</p>
<p>还有更多的没有实现</p>
<p>1. 能住几万人的太空城，照现在的发展速度，估计50年内比较难实现。 现在的航天推进技术是不行的，必须有些革命性的技术出来才有可能。 </p>
<p>2. 最让我向往的是一个小说里提到的类似鸟的衣服，外形是个很大的鸟，人可以打开拉链穿上，人就变成了一个自由飞翔的鸟。一直怀疑，是不是所有人在内心深处都有想成为飞鸟，自由飞翔的愿望。 </p>
<p>3. 和人几乎一模一样的机器人。 小时候有一个阿童木和机器猫这样的朋友一直是俺的梦想。 日本的机器人已经可以实现双腿直立行走，甚至跳舞，给人端茶递水。离梦想中的目标越来越近了，就是进步的速度比希望的慢了些。 </p>
<p>4. 全息电影， 据说已经有一些实验性的全息电影出来了，但离当时想像的差很远。 </p>
<p>&#8230;&#8230;&#8230;&#8230;&#8230;&#8230;</p>
<p>&nbsp;</p>
<p>还有些则是当时的科幻小说都没有想到的</p>
<p>1. 互联网, 堪称人类史上最伟大的发明之一</p>
<p>2. 搜索引擎，虽然是互联网的一部分，但它的伟大还是足以单列出来</p>
<p>&#8230;&#8230;&#8230;&#8230;&#8230;&#8230;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>说说自己最希望未来发明出来的技术： 物体的运动就是有个出发点和目的地，还有中间的过程。而这个中间过程其实就是注入能量，驱动物体前进。 将来有没有可能，把物体中间移动的时间节省掉，只用给出发地的物体输入一定能量，再指定目的地后，物体就能在目的地突然出现呢？一直感觉距离的远近，其实只是感官感受到的， 很可能现有认知体系中很远的东西，其实没有那么远，甚至就在身边。 我们看到的在走两点间直线的运动，可能在另一个坐标系里是绕了一大圈。 </p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>欢迎大家补充&nbsp;</p>
]]></content:encoded>
					
					<wfw:commentRss>https://doyj.com/2007/05/04/feed/</wfw:commentRss>
			<slash:comments>1</slash:comments>
		
		
			</item>
		<item>
		<title>俺是如何拦截垃圾邮件的</title>
		<link>https://doyj.com/2007/04/06/</link>
					<comments>https://doyj.com/2007/04/06/#comments</comments>
		
		<dc:creator><![CDATA[oldmonk]]></dc:creator>
		<pubDate>Fri, 06 Apr 2007 14:54:37 +0000</pubDate>
				<category><![CDATA[IT]]></category>
		<guid isPermaLink="false">http://www.doyj.com/2007/04/06/</guid>

					<description><![CDATA[看这篇文章之前，大家不妨猜猜俺每天收到的垃圾邮件有多少？10？ 100？ 1000？ 统计了大约1个月，得出的 &#8230; <a href="https://doyj.com/2007/04/06/" class="more-link">继续阅读<span class="screen-reader-text">俺... ]]></description>
										<content:encoded><![CDATA[<p>看这篇文章之前，大家不妨猜猜俺每天收到的垃圾邮件有多少？10？ 100？ 1000？ </p>
<p>统计了大约1个月，得出的结果是：平均每天1700封左右。 如何过滤这些垃圾邮件一度成了自己的头号问题。现在经常要打交道的email服务器有三个，对外公开并真正使用的有21个email地址，这也就不奇怪为什么每天的垃圾邮件那么多。现在的解决方案如下：</p>
<ol>
<li>两个email服务器上都只保留一个email帐号， 其他的帐号信件全部转发到一个gmail帐号</li>
<li>在email服务器端打开<a href="http://spamassassin.apache.org" target="_blank">SpamAssassin</a>&nbsp;。4月5号SpamAssassin为一个email地址拦截了&nbsp;53个垃圾邮件</li>
<li>gmail的拦截能力超强，每天平均拦截垃圾邮件 1500个多。 </li>
<li>在自己的计算机上安装卡巴斯基防火墙，包含病毒email过滤</li>
<li>在Outlook设定过滤垃圾邮件，级别为低。 4月5号，Outlook为我拦截下80封垃圾邮件, 不过还误认了一个正常email</li>
</ol>
<p>这么一路过滤下来，在4月5号还是有16封垃圾邮件钻进了收件箱，按比率来算是全部垃圾邮件的1%左右。 4月4号和3号这个数字分别是13和9.&nbsp; 这其中误杀的email肯定有， 自己只能每天能在Outlook的spam文件夹里找找， SpamAssassin和gmail每天过滤下来的垃圾邮件是没精力挨个检查的。如果没能回复大家的email, 那很可能你的email被这层层过滤给误杀了，在这里向大家抱歉。但实在没啥好办法了，如果不想误杀任何邮件，那每天要多搭进去太多时间精力。</p>
<p>大家有什么更好的反垃圾邮件的办法没？</p>
]]></content:encoded>
					
					<wfw:commentRss>https://doyj.com/2007/04/06/feed/</wfw:commentRss>
			<slash:comments>1</slash:comments>
		
		
			</item>
	</channel>
</rss>
