日期:2014-05-19  浏览次数:21027 次

网络编程小问题。100分送上 !
如何计算客户机节点和服务器节点间TCP数据包的上传下载速度?

(采用同步方式,平均下载速度=下载数据量/下载时间。)

请给出简单代码示例!谢谢!

------解决方案--------------------
小思路:
1:发送数据时,加一个时间头.
2:接收到数据后,把时间头和当前时间比较.得出时间差.
3:收到的数据量/时间差=平均速度.
------解决方案--------------------
收到数据数/收到的时间。
------解决方案--------------------
学习~
------解决方案--------------------
下载开始前计时,完毕后计时截至,下载文件的大小 除以 下载时间
------解决方案--------------------
楼主已经开了三个贴了??
还没解决??

其实这不算是一个技术问题,只是一个思路问题。呵呵………………
上传下载速度有两种:
一是即时速度,这个通过一个时间片的下载数据量来计算。
如:
以一秒为一个时间片,在这一秒中我下载了50K的数据,那速度就是50K/秒。
二是平均速度,这个通过整个下载的数据量和消耗的时间来计算。
如:
一个文件是200K,我下载花了2秒钟,那速度就是100K/秒。

你可以在Receive的回调函数里面处理统计的事务。
------解决方案--------------------
学习一下:
------解决方案--------------------
帮顶