网络编程小问题。100分送上 !
如何计算客户机节点和服务器节点间TCP数据包的上传下载速度?   
 (采用同步方式,平均下载速度=下载数据量/下载时间。)   
 请给出简单代码示例!谢谢!
------解决方案--------------------小思路: 
 1:发送数据时,加一个时间头. 
 2:接收到数据后,把时间头和当前时间比较.得出时间差. 
 3:收到的数据量/时间差=平均速度.
------解决方案--------------------收到数据数/收到的时间。
------解决方案--------------------学习~
------解决方案--------------------下载开始前计时,完毕后计时截至,下载文件的大小 除以 下载时间
------解决方案--------------------楼主已经开了三个贴了?? 
 还没解决??   
 其实这不算是一个技术问题,只是一个思路问题。呵呵……………… 
 上传下载速度有两种: 
 一是即时速度,这个通过一个时间片的下载数据量来计算。 
 如: 
 以一秒为一个时间片,在这一秒中我下载了50K的数据,那速度就是50K/秒。 
 二是平均速度,这个通过整个下载的数据量和消耗的时间来计算。 
 如: 
 一个文件是200K,我下载花了2秒钟,那速度就是100K/秒。   
 你可以在Receive的回调函数里面处理统计的事务。
------解决方案--------------------学习一下:
------解决方案--------------------帮顶