获取磁盘上文件的大小

问题描述 投票:0回答:5
var length = new System.IO.FileInfo(path).Length;

这给出了文件的逻辑大小,而不是磁盘上的大小。

我希望使用 C# 获取磁盘上文件的大小(最好没有 interop),如 Windows 资源管理器所报告的那样。

它应该给出正确的尺寸,包括:

  • 压缩文件
  • 稀疏文件
  • 碎片文件
c# .net filesize
5个回答
57
投票

这使用 GetCompressedFileSize(如 ho1 建议)以及 GetDiskFreeSpace(如 PaulStack) 不过,建议使用 P/Invoke。我只测试了压缩文件,我怀疑它不适用于碎片文件。

public static long GetFileSizeOnDisk(string file)
{
    FileInfo info = new FileInfo(file);
    uint dummy, sectorsPerCluster, bytesPerSector;
    int result = GetDiskFreeSpaceW(info.Directory.Root.FullName, out sectorsPerCluster, out bytesPerSector, out dummy, out dummy);
    if (result == 0) throw new Win32Exception();
    uint clusterSize = sectorsPerCluster * bytesPerSector;
    uint hosize;
    uint losize = GetCompressedFileSizeW(file, out hosize);
    long size;
    size = (long)hosize << 32 | losize;
    return ((size + clusterSize - 1) / clusterSize) * clusterSize;
}

[DllImport("kernel32.dll")]
static extern uint GetCompressedFileSizeW([In, MarshalAs(UnmanagedType.LPWStr)] string lpFileName,
   [Out, MarshalAs(UnmanagedType.U4)] out uint lpFileSizeHigh);

[DllImport("kernel32.dll", SetLastError = true, PreserveSig = true)]
static extern int GetDiskFreeSpaceW([In, MarshalAs(UnmanagedType.LPWStr)] string lpRootPathName,
   out uint lpSectorsPerCluster, out uint lpBytesPerSector, out uint lpNumberOfFreeClusters,
   out uint lpTotalNumberOfClusters);

17
投票

上面的代码在Windows Server 2008或2008 R2或基于Windows 7和Windows Vista的系统上无法正常工作,因为群集大小始终为零(即使禁用了UAC,GetDiskFreeSpaceW和GetDiskFreeSpace也会返回-1。)以下是修改后的代码有效的代码。

C#

public static long GetFileSizeOnDisk(string file)
{
    FileInfo info = new FileInfo(file);
    uint clusterSize;
    using(var searcher = new ManagementObjectSearcher("select BlockSize,NumberOfBlocks from Win32_Volume WHERE DriveLetter = '" + info.Directory.Root.FullName.TrimEnd('\\') + "'") {
        clusterSize = (uint)(((ManagementObject)(searcher.Get().First()))["BlockSize"]);
    }
    uint hosize;
    uint losize = GetCompressedFileSizeW(file, out hosize);
    long size;
    size = (long)hosize << 32 | losize;
    return ((size + clusterSize - 1) / clusterSize) * clusterSize;
}

[DllImport("kernel32.dll")]
static extern uint GetCompressedFileSizeW(
   [In, MarshalAs(UnmanagedType.LPWStr)] string lpFileName,
   [Out, MarshalAs(UnmanagedType.U4)] out uint lpFileSizeHigh);

VB.NET

  Private Function GetFileSizeOnDisk(file As String) As Decimal
        Dim info As New FileInfo(file)
        Dim blockSize As UInt64 = 0
        Dim clusterSize As UInteger
        Dim searcher As New ManagementObjectSearcher( _
          "select BlockSize,NumberOfBlocks from Win32_Volume WHERE DriveLetter = '" + _
          info.Directory.Root.FullName.TrimEnd("\") + _
          "'")

        For Each vi As ManagementObject In searcher.[Get]()
            blockSize = vi("BlockSize")
            Exit For
        Next
        searcher.Dispose()
        clusterSize = blockSize
        Dim hosize As UInteger
        Dim losize As UInteger = GetCompressedFileSizeW(file, hosize)
        Dim size As Long
        size = CLng(hosize) << 32 Or losize
        Dim bytes As Decimal = ((size + clusterSize - 1) / clusterSize) * clusterSize

        Return CDec(bytes) / 1024
    End Function

    <DllImport("kernel32.dll")> _
    Private Shared Function GetCompressedFileSizeW( _
        <[In](), MarshalAs(UnmanagedType.LPWStr)> lpFileName As String, _
        <Out(), MarshalAs(UnmanagedType.U4)> lpFileSizeHigh As UInteger) _
        As UInteger
    End Function

5
投票

根据 MSDN 社交论坛:

磁盘上的大小应该是存储文件的簇大小的总和:

long sizeondisk = clustersize * ((filelength + clustersize - 1) / clustersize);

您需要深入了解 P/Invoke 来查找集群大小;
GetDiskFreeSpace()
返回它。

参见 如何在 C# 中获取文件在磁盘上的大小

但请注意一点,这在打开压缩的NTFS中不起作用。


0
投票

我不知道簇大小如何影响磁盘上文件的大小。在SQL中,页面大小可能是4096字节,或者8192,或者1024。请原谅我的无知,但是硬件抽象层应该涵盖所有这些,我只需要操作系统报告的文件在磁盘上的大小,而不需要它的文字大小(以字节为单位)...操作系统及其对文件大小的感知对我来说很重要,没有与它的存储方式(NTFS、FAT32)等相关的细微差别...


-3
投票

我想会是这样的:

double ifileLength = (finfo.Length / 1048576); //return file size in MB ....

我仍在为此进行一些测试,以获得确认。

© www.soinside.com 2019 - 2024. All rights reserved.