编程语言书籍解释了在堆栈上创建了值类型,并且在堆上创建了引用类型,而没有解释这两者是什么。我还没有看清楚这个问题。我理解堆栈是什么。但,
堆栈是作为执行线程的临时空间留出的内存。调用函数时,会在堆栈顶部为区域变量和一些簿记数据保留一个块。当该函数返回时,该块将变为未使用状态,并可在下次调用函数时使用。堆栈始终以LIFO(后进先出)顺序保留;最近保留的块始终是要释放的下一个块。这使得跟踪堆栈非常简单;从堆栈中释放块只不过是调整一个指针。
堆是为动态分配留出的内存。与堆栈不同,堆中的块的分配和释放没有强制模式;您可以随时分配一个块并随时释放它。这使得在任何给定时间跟踪堆的哪些部分被分配或释放变得更加复杂;有许多自定义堆分配器可用于调整不同使用模式的堆性能。
每个线程都获得一个堆栈,而应用程序通常只有一个堆(尽管为不同类型的分配设置多个堆并不罕见)。
直接回答您的问题:
它们在多大程度上受操作系统或语言运行时控制?
操作系统在创建线程时为每个系统级线程分配堆栈。通常,语言运行库调用OS来为应用程序分配堆。
它们的范围是什么?
堆栈附加到线程,因此当线程退出堆栈时回收。堆通常在应用程序启动时由运行时分配,并在应用程序(技术过程)退出时回收。
是什么决定了它们的大小?
创建线程时设置堆栈的大小。堆的大小在应用程序启动时设置,但可以在需要空间时增长(分配器从操作系统请求更多内存)。
是什么让一个更快?
堆栈更快,因为访问模式使得从中分配和释放内存变得微不足道(指针/整数简单地递增或递减),而堆在分配或释放中涉及更复杂的簿记。此外,堆栈中的每个字节都经常被频繁地重用,这意味着它往往被映射到处理器的缓存,使其非常快。堆的另一个性能影响是堆(主要是全局资源)通常必须是多线程安全的,即每个分配和释放需要 - 通常 - 与程序中的“所有”其他堆访问同步。
明确的示范: 图像来源:vikashazrati.wordpress.com
堆栈是内存的一部分,可以通过几个关键的汇编语言指令来操作,例如'pop'(从堆栈中删除并返回一个值)和'push'(将值推送到堆栈),还可以调用(调用子程序 - 这会推送地址返回堆栈)并返回(从子程序返回 - 这会弹出堆栈中的地址并跳转到它)。它是堆栈指针寄存器下面的内存区域,可以根据需要进行设置。堆栈还用于将参数传递给子例程,也用于在调用子例程之前保留寄存器中的值。
堆是操作系统给应用程序的内存的一部分,通常通过类似malloc的系统调用。在现代操作系统上,此内存是一组只有调用进程才能访问的页面。
堆栈的大小在运行时确定,并且通常在程序启动后不会增长。在C程序中,堆栈需要足够大以容纳每个函数中声明的每个变量。堆将根据需要动态增长,但操作系统最终会进行调用(它通常会使堆的增长超过malloc请求的值,因此至少某些未来的malloc将不需要返回到内核获得更多内存。此行为通常是可自定义的)
因为你在启动程序之前已经分配了堆栈,所以在使用堆栈之前你永远不需要malloc,所以这是一个小优势。在实践中,很难预测具有虚拟内存子系统的现代操作系统的速度和速度会有多快,因为页面的实现方式和存储位置是实现细节。
我想很多其他人在这件事上给了你大致正确的答案。
然而,遗漏的一个细节是“堆”实际上可能被称为“免费商店”。这种区别的原因是原始的免费存储是使用称为“二项式堆”的数据结构实现的。出于这个原因,从malloc()/ free()的早期实现中分配是从堆中分配的。然而,在这个现代,大多数免费商店都使用非二维堆的非常精细的数据结构来实现。
什么是堆栈?
堆叠是一堆物体,通常是整齐排列的物体。
计算体系结构中的堆栈是存储器区域,其中以后进先出的方式添加或移除数据。 在多线程应用程序中,每个线程都有自己的堆栈。
什么是堆?
堆是随意堆积的不整齐的东西。
在计算体系结构中,堆是动态分配的内存区域,由操作系统或内存管理器库自动管理。 在程序执行期间,会定期分配,释放和重新调整堆上的内存,这可能会导致称为碎片的问题。 当内存对象被分配时,其中的小空间太小而无法容纳额外的内存对象,就会发生碎片。 最终结果是堆空间的百分比不可用于进一步的内存分配。
两者一起
在多线程应用程序中,每个线程都有自己的堆栈。但是,所有不同的线程都将共享堆。 因为不同的线程在多线程应用程序中共享堆,这也意味着线程之间必须有一些协调,这样它们就不会尝试访问和操作堆中的相同内存块。同一时间。
哪个更快 - 堆栈还是堆?为什么?
堆栈比堆快得多。 这是因为在堆栈上分配内存的方式。 在堆栈上分配内存就像向上移动堆栈指针一样简单。
对于刚接触编程的人来说,使用堆栈可能是一个好主意,因为它更容易。 由于堆栈很小,因此当您确切知道数据需要多少内存时,或者如果您知道数据的大小非常小时,则需要使用它。 当你知道你的数据需要大量内存时,或者你不确定需要多少内存(比如动态数组),最好使用堆。
堆栈是存储局部变量(包括方法参数)的存储区域。对于对象变量,这些仅仅是对堆上实际对象的引用(指针)。 每次实例化一个对象时,都会留出一大堆堆内存来保存该对象的数据(状态)。由于对象可以包含其他对象,因此某些数据实际上可以保存对这些嵌套对象的引用。
简单地说,堆栈是创建局部变量的地方。此外,每次调用子程序时,程序计数器(指向下一个机器指令的指针)和任何重要的寄存器,有时参数都会被压入堆栈。然后子程序中的任何局部变量被压入堆栈(并从那里使用)。当子程序结束时,所有东西都会从堆栈中弹出。 PC和寄存器数据在弹出时会被放回原处,因此您的程序可以顺利进行。
堆是内存区域动态内存分配由(显式“新”或“分配”调用)组成。它是一种特殊的数据结构,可以跟踪不同大小的内存块及其分配状态。
在“经典”系统中,RAM被布置成使得堆栈指针从内存的底部开始,堆指针从顶部开始,并且它们朝向彼此增长。如果它们重叠,则表示RAM不足。但这不适用于现代多线程操作系统。每个线程都必须有自己的堆栈,这些堆栈可以动态创建。
来自WikiAnwser。
当函数或方法调用另一个函数,该函数又调用另一个函数等时,所有这些函数的执行将保持挂起,直到最后一个函数返回其值。
这个挂起函数调用链是堆栈,因为堆栈中的元素(函数调用)彼此依赖。
在异常处理和线程执行中,堆栈很重要。
堆只是程序用来存储变量的内存。堆的元素(变量)彼此之间没有依赖关系,并且可以随时随机访问。
堆
堆
好吧,简单而言之,它们意味着有序而不是有序......!
堆栈:在堆栈项目中,事物处于彼此的顶部,意味着要更快,更高效地处理!...
所以总有一个索引指向特定项目,处理速度也会更快,项目之间也存在关联!...
堆:没有订单,处理速度会慢,价值会混乱,没有特定的订单或索引......有随机的,它们之间没有关系......所以执行和使用时间可能会有所不同......
我还创建了下面的图像,以显示它们的外观:
堆栈用于静态内存分配,堆用于动态内存分配,两者都存储在计算机的RAM中。
堆栈
堆栈是一个“LIFO”(后进先出)数据结构,由CPU非常密切地管理和优化。每次函数声明一个新变量时,它都会被“推”到堆栈上。然后每次函数退出时,该函数推送到堆栈的所有变量都被释放(也就是说,它们被删除)。一旦释放了堆栈变量,该内存区域就可用于其他堆栈变量。
使用堆栈存储变量的优点是可以为您管理内存。您不必手动分配内存,也不必在不再需要时释放内存。更重要的是,因为CPU如此高效地组织堆栈内存,读取和写入堆栈变量的速度非常快。
更多可以找到Valgrind。
堆
堆是计算机内存的一个区域,不会自动为您管理,并且不受CPU的严格管理。它是一个更自由浮动的内存区域(并且更大)。要在堆上分配内存,必须使用malloc()或calloc(),它们是内置的C函数。一旦你在堆上分配了内存,你就有责任使用free()在你不再需要它时解除分配该内存。
如果您没有这样做,您的程序将具有所谓的内存泄漏。也就是说,堆上的内存仍然会被搁置(并且不会被其他进程使用)。正如我们将在调试部分中看到的,有一个名为here的工具可以帮助您检测内存泄漏。
与堆栈不同,堆对可变大小没有大小限制(除了计算机明显的物理限制)。堆内存的读取和写入速度稍慢,因为必须使用指针来访问堆上的内存。我们将很快讨论指针。
与堆栈不同,堆上创建的变量可由程序中的任何位置的任何函数访问。堆变量本质上是全局的。
在堆栈上分配的变量直接存储到存储器中,并且对该存储器的访问非常快,并且在编译程序时处理其分配。当函数或方法调用另一个函数,该函数又调用另一个函数等时,所有这些函数的执行将保持挂起,直到最后一个函数返回其值。堆栈始终以LIFO顺序保留,最近保留的块始终是要释放的下一个块。这使得跟踪堆栈非常简单,从堆栈中释放块只不过是调整一个指针。
在堆上分配的变量在运行时分配其内存并访问此内存有点慢,但堆大小仅受虚拟内存大小的限制。堆的元素彼此之间没有依赖关系,并且可以随时随机访问。您可以随时分配一个块并随时释放它。这使得在任何给定时间跟踪堆的哪些部分被分配或释放变得更加复杂。
如果您确切地知道在编译之前需要分配多少数据,那么您可以使用堆栈,并且它不会太大。如果您不确切知道运行时需要多少数据,或者需要分配大量数据,则可以使用堆。
在多线程情况下,每个线程都有自己完全独立的堆栈,但它们将共享堆。堆栈是特定于线程的,堆是特定于应用程序的。在异常处理和线程执行中,堆栈很重要。
每个线程都获得一个堆栈,而应用程序通常只有一个堆(尽管为不同类型的分配设置多个堆并不罕见)。
在运行时,如果应用程序需要更多堆,它可以从空闲内存分配内存,如果堆栈需要内存,它可以从应用程序的空闲内存分配内存中分配内存。
现在回答你的问题答案。
它们在多大程度上受操作系统或语言运行时控制?
操作系统在创建线程时为每个系统级线程分配堆栈。通常,语言运行库调用OS来为应用程序分配堆。
更多可以找到here。
它们的范围是什么?
已经在顶部给出。
“如果你确切地知道在编译之前需要分配多少数据,你可以使用堆栈。它不是太大。如果你不确切知道在运行时需要多少数据,或者你需要分配很多数据。“
更多信息可以在OS找到。
是什么决定了它们的大小?
创建线程时,堆栈的大小由here设置。堆的大小在应用程序启动时设置,但它可以在需要空间时增长(分配器从操作系统请求更多内存)。
是什么让一个更快?
堆栈分配要快得多,因为它真正做的就是移动堆栈指针。使用内存池,您可以从堆分配中获得可比较的性能,但这会带来轻微的复杂性和自身的麻烦。
此外,堆栈与堆不仅是性能考虑因素;它还告诉你很多关于对象的预期寿命。
在20世纪80年代,UNIX像兔子一样传播,大公司自己推销。埃克森只有一个,历史上失去了数十个品牌。如何记忆是由许多实施者自行决定的。
典型的C程序在内存中平放,有机会通过更改brk()值来增加。通常,HEAP刚好低于此brk值,并且增加的brk增加了可用堆的数量。
单个STACK通常是HEAP下面的一个区域,它是一个内存区域,直到下一个固定内存块的顶部才包含任何有价值的内容。下一个块通常是CODE,它可以在其时代的一个着名黑客中被堆栈数据覆盖。
一个典型的存储器块是BSS(一个零值块),它在一个制造商的产品中偶然没有归零。另一个是包含初始化值的DATA,包括字符串和数字。第三个是包含CRT(C运行时),main,函数和库的CODE。
UNIX中虚拟内存的出现改变了许多约束。没有客观理由说明为什么这些块需要连续,或固定大小,或现在以特定方式排序。当然,在UNIX之前没有遭受这些限制的Multics。这是一个显示那个时代的存储器布局之一的示意图。
堆:
堆:
delete
,delete[]
或free
释放。new
或malloc
分配。例:
int foo()
{
char *pBuffer; //<--nothing allocated yet (excluding the pointer itself, which is allocated here on the stack).
bool b = true; // Allocated on the stack.
if(b)
{
//Create 500 bytes on the stack
char buffer[500];
//Create 500 bytes on the heap
pBuffer = new char[500];
}//<-- buffer is deallocated here, pBuffer is not
}//<--- oops there's a memory leak, I should have called delete[] pBuffer;
几美分:我认为,绘制内存图形化更简单:
箭头 - 显示增长堆栈和堆的位置,进程堆栈大小有限制,在OS中定义,线程堆栈大小通常由线程创建API中的参数限制。堆通常限制为进程最大虚拟内存大小,例如32位2-4 GB。
这么简单的方法:进程堆通常用于进程和内部的所有线程,在常见情况下用于内存分配,例如malloc()。
堆栈是快速存储器,用于存储常见情况函数返回指针和变量,作为函数调用中的参数处理,本地函数变量。
由于一些答案被挑剔,我将贡献我的螨虫。
令人惊讶的是,没有人提到多个(即与运行的OS级线程的数量无关)调用堆栈不仅可以在外来语言(PostScript)或平台(Intel Itanium)中找到,还可以在green threads,coroutines和here的一些实现。
纤维,绿线和协同程序在很多方面都很相似,这会导致很多混乱。光纤和绿色线程之间的区别在于前者使用协作式多任务处理,而后者可能具有协作式或抢占式(或甚至两者)。有关纤维和协同程序之间的区别,请参阅this SO question。
在任何情况下,光纤,绿色线程和协同程序的目的是同时执行多个函数,但不是在单个OS级别的线程内并行执行(参见Boost.Coroutine的区别),在一个操作系统级别的线程中来回传输控制。有组织的时尚
使用光纤,绿色线程或协程时,每个函数通常都有一个单独的堆栈。 (从技术上讲,不仅仅是一个堆栈,而是整个执行上下文是每个函数。最重要的是,CPU寄存器。)对于每个线程,存在与并发运行函数一样多的堆栈,并且线程在执行每个函数之间切换根据你的程序的逻辑。当函数运行到其末尾时,其堆栈将被销毁。因此,堆栈的数量和生命周期是动态的,并不是由OS级线程的数量决定的!
请注意,我说“每个函数通常有一个单独的堆栈”。有一些堆栈和无堆栈的couroutines实现。最着名的堆栈C ++实现是Microsoft PPL和async/await
的resumable functions。 (但是,C ++的async
(a.k.a。“await
和libraries”),它被提议用于C ++ 17,可能会使用无堆栈协程。)
纤维对C ++标准库的提议即将发布。此外,还有一些第三方https://norasandler.com/2019/02/18/Write-a-Compiler-10.html。绿色线程在Python和Ruby等语言中非常流行。
我有一些东西要分享,虽然已经涵盖了主要观点。
堆
堆
有趣的说明:
哇!这么多的答案,我不认为他们中的一个做对了......
1)它们在哪里以及它们(物理上在真实计算机的记忆中)?
堆栈是以分配给程序映像的最高内存地址开始的内存,然后从那里减少值。它保留用于被调用的函数参数和函数中使用的所有临时变量。
有两种:公共和私人。
在程序的最后一个代码字节之后,专用堆开始于16字节边界(对于64位程序)或8字节边界(对于32位程序),然后从那里增加值。它也称为默认堆。
如果私有堆变得太大,它将与堆栈区域重叠,如果堆栈变得太大,堆栈将与堆重叠。因为堆栈从较高的地址开始并向下运行到较低的地址,通过适当的黑客攻击,您可以使堆栈变得如此之大,以至于它将超出私有堆区域并重叠代码区域。然后,技巧是重叠足够的代码区域,您可以将其挂钩到代码中。这样做有点棘手,你冒着程序崩溃的风险,但这很容易也很有效。
公共堆驻留在程序映像空间之外的自己的内存空间中。如果内存资源稀缺,这个内存将被虹吸到硬盘上。
2)它们在多大程度上受OS或语言运行时控制?
堆栈由程序员控制,私有堆由操作系统管理,并且公共堆不受任何人控制,因为它是OS服务 - 您发出请求并且它们被授予或拒绝。
2b)他们的范围是什么?
它们都是该计划的全球性,但它们的内容可以是私人的,公共的或全球的。
2c)是什么决定了它们的大小?
堆栈和专用堆的大小由编译器运行时选项确定。使用size参数在运行时初始化公共堆。
2d)是什么让一个更快?
它们的设计并不快,它们的设计非常有用。程序员如何利用它们决定它们是“快”还是“慢”
REF:
https://docs.microsoft.com/en-us/windows/desktop/api/heapapi/nf-heapapi-getprocessheap
https://docs.microsoft.com/en-us/windows/desktop/api/heapapi/nf-heapapi-heapcreate
qazxswpoi
很多答案都是正确的概念,但我们必须注意硬件(即微处理器)需要一个堆栈来允许调用子程序(汇编语言中的CALL ......)。 (OOP人会称之为方法)
在堆栈上保存返回地址并调用→push / ret→pop直接在硬件中管理。
您可以使用堆栈传递参数..即使它比使用寄存器慢(微处理器大师会说或者是一本很好的20世纪80年代的BIOS书......)
堆栈使用速度更快:
最重要的一点是堆和堆栈是可以分配内存的方式的通用术语。它们可以以多种不同的方式实现,并且这些术语适用于基本概念。
这些图像应该可以很好地描述在堆栈和堆中分配和释放内存的两种方法。百胜!
(我已经从另一个或多或少是这个问题的问题中提出了这个答案。)
您的问题的答案是特定于实现的,并且可能因编译器和处理器体系结构而异。但是,这是一个简化的解释。
new
或malloc
)。这需要更新堆上的块列表。有关堆上块的元信息也经常存储在堆中,位于每个块的前面。可以在堆而不是堆栈上分配函数吗?
不,功能的激活记录(即本地或自动变量)在堆栈上分配,不仅用于存储这些变量,还用于跟踪嵌套的函数调用。
如何管理堆实际上取决于运行时环境。 C使用malloc
而C ++使用new
,但许多其他语言都有垃圾收集。
但是,堆栈是与处理器架构紧密相关的更低级别的功能。当没有足够的空间时增加堆不是太难,因为它可以在处理堆的库调用中实现。但是,堆栈的增长通常是不可能的,因为只有在为时已晚时才发现堆栈溢出;并且关闭执行线程是唯一可行的选择。
在以下C#代码中
public void Method1()
{
int i = 4;
int y = 2;
class1 cls1 = new class1();
}
以下是内存的管理方式
只要函数调用进入堆栈,只需要持续的Local Variables
。堆用于变量,我们事先并不知道它们的生命周期,但我们希望它们可以持续一段时间。在大多数语言中,如果我们想要将它存储在堆栈中,那么在编译时我们知道变量有多大是至关重要的。
对象(在更新它们时大小不同)会在堆上进行,因为我们在创建时不知道它们将持续多长时间。在许多语言中,堆被垃圾收集以查找不再具有任何引用的对象(例如cls1对象)。
在Java中,大多数对象直接进入堆。在像C / C ++这样的语言中,当你不处理指针时,结构和类通常可以保留在堆栈中。
更多信息可以在这里找到:
The difference between stack and heap memory allocation « timmurphy.org
和这里:
Creating Objects on the Stack and Heap
但请注意,它可能包含一些不准确之处。
堆栈当你调用一个函数时,该函数的参数加上一些其他开销被放在堆栈上。一些信息(例如返回的地方)也存储在那里。在函数内部声明变量时,该变量也会在堆栈中分配。
取消分配堆栈非常简单,因为您总是按照分配的相反顺序解除分配。输入函数时会添加堆栈内容,退出时会删除相应的数据。这意味着您倾向于保持在堆栈的一个小区域内,除非您调用许多调用许多其他函数的函数(或创建递归解决方案)。
堆堆是一个通用名称,用于放置您即时创建的数据。如果您不知道程序将创建多少太空飞船,您可能会使用新的(或malloc或等效的)运算符来创建每个太空飞船。这种分配将持续一段时间,因此我们很可能会以与创建它们不同的顺序释放事物。
因此,堆要复杂得多,因为最终存在未使用的内存区域与内存被分段的块交织。找到所需大小的空闲内存是一个难题。这就是应该避免堆的原因(虽然它仍然经常使用)。
实现堆栈和堆的实现通常都是运行时/操作系统。通常,性能至关重要的游戏和其他应用程序会创建自己的内存解决方案,从堆中获取大量内存,然后在内部将其清除,以避免依赖操作系统获取内存。
这只有在你的内存使用量与标准有很大不同的情况下才有用 - 例如,你在一个巨大的操作中加载一个级别的游戏,并且可以在另一个巨大的操作中丢掉所有内存。
内存中的物理位置由于一种名为Virtual Memory的技术使得您的程序认为您可以访问物理数据位于其他位置的某个地址(即使在硬盘上),因此与您的想法相关性较低。当您的调用树变得更深时,您获得的堆栈地址会逐渐增加。堆的地址是不可预测的(即特定的实施),坦率地说并不重要。
澄清一下,this answer有不正确的信息(thomas在评论后修复了他的答案,很酷:))。其他答案只是避免解释静态分配的含义。因此,我将解释三种主要的分配形式以及它们通常如何与下面的堆,堆栈和数据段相关联。我还将展示C / C ++和Python中的一些示例,以帮助人们理解。
“静态”(AKA静态分配)变量未在堆栈上分配。不要这么认为 - 许多人只是因为“静态”听起来很像“堆叠”。它们实际上既不存在于堆栈中,也不存在于堆中。这是所谓的data segment的一部分。
但是,通常最好考虑“范围”和“生命周期”而不是“堆栈”和“堆”。
范围是指代码的哪些部分可以访问变量。通常我们会考虑局部范围(只能通过当前函数访问)与全局范围(可以在任何地方访问),尽管范围可能变得更加复杂。
生命周期是指在程序执行期间分配和释放变量的时间。通常我们会想到静态分配(变量将持续整个程序的持续时间,使其对于在多个函数调用中存储相同的信息很有用)与自动分配(变量仅在单个函数调用期间持续存在,使其对于存储仅在函数期间使用的信息,并且一旦完成就可以丢弃)与动态分配(变量的持续时间在运行时定义,而不是像静态或自动一样的编译时)。
尽管大多数编译器和解释器在使用堆栈,堆等方面类似地实现了这种行为,但只要行为正确,编译器有时可能会破坏这些约定。例如,由于优化,局部变量可能只存在于寄存器中或被完全删除,即使堆栈中存在大多数局部变量。正如在一些注释中指出的那样,你可以自由地实现一个甚至不使用堆栈或堆的编译器,而是使用其他一些存储机制(很少做,因为堆栈和堆很适合这个)。
我将提供一些简单的带注释的C代码来说明所有这些。学习的最佳方法是在调试器下运行程序并观察行为。如果你更喜欢阅读python,请跳到答案结尾:)
// Statically allocated in the data segment when the program/DLL is first loaded
// Deallocated when the program/DLL exits
// scope - can be accessed from anywhere in the code
int someGlobalVariable;
// Statically allocated in the data segment when the program is first loaded
// Deallocated when the program/DLL exits
// scope - can be accessed from anywhere in this particular code file
static int someStaticVariable;
// "someArgument" is allocated on the stack each time MyFunction is called
// "someArgument" is deallocated when MyFunction returns
// scope - can be accessed only within MyFunction()
void MyFunction(int someArgument) {
// Statically allocated in the data segment when the program is first loaded
// Deallocated when the program/DLL exits
// scope - can be accessed only within MyFunction()
static int someLocalStaticVariable;
// Allocated on the stack each time MyFunction is called
// Deallocated when MyFunction returns
// scope - can be accessed only within MyFunction()
int someLocalVariable;
// A *pointer* is allocated on the stack each time MyFunction is called
// This pointer is deallocated when MyFunction returns
// scope - the pointer can be accessed only within MyFunction()
int* someDynamicVariable;
// This line causes space for an integer to be allocated in the heap
// when this line is executed. Note this is not at the beginning of
// the call to MyFunction(), like the automatic variables
// scope - only code within MyFunction() can access this space
// *through this particular variable*.
// However, if you pass the address somewhere else, that code
// can access it too
someDynamicVariable = new int;
// This line deallocates the space for the integer in the heap.
// If we did not write it, the memory would be "leaked".
// Note a fundamental difference between the stack and heap
// the heap must be managed. The stack is managed for us.
delete someDynamicVariable;
// In other cases, instead of deallocating this heap space you
// might store the address somewhere more permanent to use later.
// Some languages even take care of deallocation for you... but
// always it needs to be taken care of at runtime by some mechanism.
// When the function returns, someArgument, someLocalVariable
// and the pointer someDynamicVariable are deallocated.
// The space pointed to by someDynamicVariable was already
// deallocated prior to returning.
return;
}
// Note that someGlobalVariable, someStaticVariable and
// someLocalStaticVariable continue to exist, and are not
// deallocated until the program exits.
为什么区分生命周期和范围很重要的一个特别尖锐的例子是变量可以具有局部范围但是具有静态生命周期 - 例如,上面的代码示例中的“someLocalStaticVariable”。这些变量可以使我们共同但非正式的命名习惯非常混乱。例如,当我们说“本地”时,我们通常表示“本地范围自动分配变量”,当我们说全局时,我们通常表示“全局范围的静态分配变量”。不幸的是,当涉及到“文件范围静态分配变量”这样的事情时,很多人只会说......“嗯???”。
C / C ++中的一些语法选择加剧了这个问题 - 例如,由于下面显示的语法,很多人认为全局变量不是“静态的”。
int var1; // Has global scope and static allocation
static int var2; // Has file scope and static allocation
int main() {return 0;}
请注意,在上面的声明中放置关键字“static”可以防止var2具有全局范围。然而,全局var1具有静态分配。这不直观!出于这个原因,我尝试在描述范围时从不使用“静态”一词,而是说“文件”或“文件限制”范围。然而,许多人使用短语“静态”或“静态范围”来描述只能从一个代码文件访问的变量。在生命周期的上下文中,“static”总是表示变量在程序启动时分配,并在程序退出时释放。
有些人认为这些概念是特定于C / C ++的。他们不是。例如,下面的Python示例说明了所有三种类型的分配(在解释语言中可能存在一些细微差别,我不会在这里讨论)。
from datetime import datetime
class Animal:
_FavoriteFood = 'Undefined' # _FavoriteFood is statically allocated
def PetAnimal(self):
curTime = datetime.time(datetime.now()) # curTime is automatically allocatedion
print("Thank you for petting me. But it's " + str(curTime) + ", you should feed me. My favorite food is " + self._FavoriteFood)
class Cat(Animal):
_FavoriteFood = 'tuna' # Note since we override, Cat class has its own statically allocated _FavoriteFood variable, different from Animal's
class Dog(Animal):
_FavoriteFood = 'steak' # Likewise, the Dog class gets its own static variable. Important to note - this one static variable is shared among all instances of Dog, hence it is not dynamic!
if __name__ == "__main__":
whiskers = Cat() # Dynamically allocated
fido = Dog() # Dynamically allocated
rinTinTin = Dog() # Dynamically allocated
whiskers.PetAnimal()
fido.PetAnimal()
rinTinTin.PetAnimal()
Dog._FavoriteFood = 'milkbones'
whiskers.PetAnimal()
fido.PetAnimal()
rinTinTin.PetAnimal()
# Output is:
# Thank you for petting me. But it's 13:05:02.255000, you should feed me. My favorite food is tuna
# Thank you for petting me. But it's 13:05:02.255000, you should feed me. My favorite food is steak
# Thank you for petting me. But it's 13:05:02.255000, you should feed me. My favorite food is steak
# Thank you for petting me. But it's 13:05:02.255000, you should feed me. My favorite food is tuna
# Thank you for petting me. But it's 13:05:02.255000, you should feed me. My favorite food is milkbones
# Thank you for petting me. But it's 13:05:02.256000, you should feed me. My favorite food is milkbones
其他人已经很好地回答了广泛的笔触,所以我会提出一些细节。
void myfunction()
{
char big[10000000];
// Do something that only uses for first 1K of big 99% of the time.
}
在堆栈上分配,而不是在堆上分配的alloc。这个内存不会在你的return语句中存活,但它对临时缓冲区很有用。mmap()
其他人直接回答了你的问题,但在尝试理解堆栈和堆时,我认为考虑传统UNIX进程的内存布局(没有线程和基于Memory Management Glossary的分配器)是有帮助的。 setrlimit(RLIMIT_STACK, ...)
网页上有一个内存布局图。
堆栈和堆传统上位于进程的虚拟地址空间的两端。堆栈在访问时会自动增长,最大可达内核设置的大小(可以使用brk()
进行调整)。当内存分配器调用sbrk()
或multiple stacks系统调用时,堆会增长,将更多页面的物理内存映射到进程的虚拟地址空间。
在没有虚拟内存的系统中,例如某些嵌入式系统,通常会应用相同的基本布局,但堆栈和堆的大小是固定的。但是,在其他嵌入式系统(例如基于Microchip PIC单片机的系统)中,程序堆栈是一个单独的内存块,无法通过数据移动指令寻址,只能通过程序流指令间接修改或读取(调用,返回等)。其他架构,如Intel Itanium处理器,有。从这个意义上说,堆栈是CPU架构的一个元素。