Les variables use-once sont liées à des objets linéaires (non partagés, non crénelés ou à références uniques). L`algorithme n`assume aucun support matériel ou système d`exploitation spécial, e. Nous présentons des preuves expérimentales que les coûts de fragmentation sont beaucoup plus faibles que ceux reconnus antérieurement pour la plupart des programmes et qu`ils élaborent un cadre pour comprendre ces résultats et permettre de poursuivre la recherche dans ce domaine. L`écrasement transforme inévitablement une pénurie d`espace mémoire en un surplus de temps processeur. La performance de la mémoire RCM est plus que compétitive avec la mémoire principale. Une fois que différents types de données doivent être alloués à partir de différents espaces, cependant, la taille relative des espaces devient importante. Actes de la conférence ACM SIGPLAN` 00 sur la conception et la mise en œuvre du langage de programmation, pp. Nous avons profité de la prise en charge de Mach pour les grands espaces d`adressage épars et les serveurs de pagination définis par l`utilisateur. Dans histoire des langages de programmation I, pp. lettres de traitement d`information. Le comptage de référence pondéré est un système de récupération de stockage distribué à faible communication pour les multiprocesseurs faiblement couplés.
Cette option est obtenue avec un minimum de calcul supplémentaire au-delà de celui d`un système de jumelage binaire, et fournit ce schéma avec une nouvelle approche du problème de la fragmentation externe. Cette technique de pagewise exploite la localité temporelle et spatiale de la même manière que la mémoire virtuelle normale; Cela lui donne beaucoup de caractéristiques de performance souhaitables, en particulier compte tenu de la tendance vers des mémoires principales plus grandes. Morris-Suzuki, T. Dirk Grunwald, Benjamin Zorn, R. Baker. En particulier, j`arrive à la conclusion inattendue que le garbage collection de marque-et-balayage, lorsqu`il est augmenté avec des générations, montre des performances comparables du CPU et beaucoup mieux localité de référence que les algorithmes de copie plus largement utilisés. Les architectures hautes performances modernes omettent souvent la prise en charge matérielle pour le déplacement des données entre les niveaux de la hiérarchie de mémoire: iWarp n`inclut pas de cache de données et les supercalculateurs Cray n`ont pas de mémoire virtuelle. Gouvernement. Nous prévoyons une prise en charge efficace de la persistance orthogonale pour être utile dans les applications de systèmes d`exploitation qui utilisent des données persistantes. Alors que la pagination accrue peut être débilitante sur n`importe quelle architecture, les taux de manque de cache sont également importants pour les architectures informatiques modernes. Dans l`appel à l`avenir, chaque paramètre formel d`une fonction est lié à un processus distinct (appelé «avenir») consacré à l`évaluation de l`argument correspondant.
Bien que cette “collection est inversée mutation” perspicacité ne réduit pas les besoins en espace lorsqu`il est utilisé pour le calcul dans son ensemble, il ne économiser de l`espace lorsqu`il est utilisé pour recycler à des échelles plus fines. David Moon. La gestion automatique de la mémoire, ou le garbage collection, est une technique qui réduit considérablement le problème complexe de la gestion de la mémoire correcte. Toutes les exécutions ont démontré que les performances pourraient être améliorées avec deux techniques: séparer les grandes bitmaps et les chaînes, et médiating tenure avec rétroaction démographique. Cet article décrit une nouvelle façon de résoudre le problème de récupération de stockage pour un système tel que Lisp qui alloue le stockage automatiquement à partir d`un tas, et ne nécessite pas le programmeur pour donner une indication que les éléments particuliers ne sont plus utiles ou accessibles. Moss. La prise en charge du compilateur fournit les informations de type requises pour générer de manière statique et automatique ce garbage collector personnalisé. Cela améliore les performances des machines virtuelles, car la zone fréquemment réutilisée reste dans la mémoire principale. Pour les caches avec emplacement de sous-bloc, la surcharge du cache de données était de moins de 9% pour un cache de données de 64 Ko ou plus.
sans placement sous-bloc, la surcharge était souvent supérieure à 50%. L`importance de la conception de l`architecture et du matériel pour faciliter le garbage collection est soulignée. Les techniques utilisées dans le CMM sont assez générales pour s`appliquer également à d`autres langues. Amélioration de la localité de cache de l`allocation de mémoire».