/freebsd-12-stable/contrib/jemalloc/include/jemalloc/internal/ |
H A D | arena_inlines_b.h | 120 szind_t szind = rtree_szind_read(tsdn, &extents_rtree, rtree_ctx, local 122 assert(szind != NSIZES); 124 return sz_index2size(szind); 142 szind_t szind; local 144 (uintptr_t)ptr, false, &extent, &szind)) { 155 assert(szind != NSIZES); 157 return sz_index2size(szind); 167 szind_t szind; local 170 true, &szind, &slab); 175 assert(szind [all...] |
H A D | extent_inlines.h | 54 szind_t szind = (szind_t)((extent->e_bits & EXTENT_BITS_SZIND_MASK) >> 56 assert(szind <= NSIZES); 57 return szind; 62 szind_t szind = extent_szind_get_maybe_invalid(extent); local 63 assert(szind < NSIZES); /* Never call when "invalid". */ 64 return szind; 236 extent_szind_set(extent_t *extent, szind_t szind) { argument 237 assert(szind <= NSIZES); /* NSIZES means "invalid". */ 239 ((uint64_t)szind << EXTENT_BITS_SZIND_SHIFT); 304 bool slab, szind_t szind, size_ 303 extent_init(extent_t *extent, arena_t *arena, void *addr, size_t size, bool slab, szind_t szind, size_t sn, extent_state_t state, bool zeroed, bool committed, bool dumpable) argument [all...] |
H A D | rtree.h | 263 rtree_leaf_elm_t *elm, szind_t szind) { 264 assert(szind <= NSIZES); 269 uintptr_t bits = ((uintptr_t)szind << LG_VADDR) | 275 atomic_store_u(&elm->le_szind, szind, ATOMIC_RELEASE); 296 extent_t *extent, szind_t szind, bool slab) { 298 uintptr_t bits = ((uintptr_t)szind << LG_VADDR) | 304 rtree_leaf_elm_szind_write(tsdn, rtree, elm, szind); 315 rtree_leaf_elm_t *elm, szind_t szind, bool slab) { 316 assert(!slab || szind < NBINS); 319 * The caller implicitly assures that it is the only writer to the szind 262 rtree_leaf_elm_szind_write(UNUSED tsdn_t *tsdn, UNUSED rtree_t *rtree, rtree_leaf_elm_t *elm, szind_t szind) argument 295 rtree_leaf_elm_write(tsdn_t *tsdn, rtree_t *rtree, rtree_leaf_elm_t *elm, extent_t *extent, szind_t szind, bool slab) argument 314 rtree_leaf_elm_szind_slab_update(tsdn_t *tsdn, rtree_t *rtree, rtree_leaf_elm_t *elm, szind_t szind, bool slab) argument 386 rtree_write(tsdn_t *tsdn, rtree_t *rtree, rtree_ctx_t *rtree_ctx, uintptr_t key, extent_t *extent, szind_t szind, bool slab) argument 475 rtree_szind_slab_update(tsdn_t *tsdn, rtree_t *rtree, rtree_ctx_t *rtree_ctx, uintptr_t key, szind_t szind, bool slab) argument [all...] |
H A D | arena_structs_b.h | 225 szind_t szind; member in struct:alloc_ctx_s
|
H A D | extent_externs.h | 36 size_t size, size_t pad, size_t alignment, bool slab, szind_t szind, 47 size_t alignment, bool slab, szind_t szind, bool *zero, bool *commit);
|
H A D | arena_stats.h | 222 szind_t szind, uint64_t nrequests) { 224 arena_stats_add_u64(tsdn, arena_stats, &arena_stats->lstats[szind - 221 arena_stats_large_nrequests_add(tsdn_t *tsdn, arena_stats_t *arena_stats, szind_t szind, uint64_t nrequests) argument
|
/freebsd-12-stable/contrib/jemalloc/src/ |
H A D | extent.c | 111 size_t usize, size_t pad, size_t alignment, bool slab, szind_t szind, 504 size_t alignment, bool slab, szind_t szind, bool *zero, bool *commit) { 511 new_addr, size, pad, alignment, slab, szind, zero, commit, false); 679 rtree_leaf_elm_t *elm_b, extent_t *extent, szind_t szind, bool slab) { 680 rtree_leaf_elm_write(tsdn, &extents_rtree, elm_a, extent, szind, slab); 682 rtree_leaf_elm_write(tsdn, &extents_rtree, elm_b, extent, szind, 689 szind_t szind) { 696 LG_PAGE), extent, szind, true); 754 szind_t szind = extent_szind_get_maybe_invalid(extent); local 756 extent_rtree_write_acquired(tsdn, elm_a, elm_b, extent, szind, sla 502 extents_alloc(tsdn_t *tsdn, arena_t *arena, extent_hooks_t **r_extent_hooks, extents_t *extents, void *new_addr, size_t size, size_t pad, size_t alignment, bool slab, szind_t szind, bool *zero, bool *commit) argument 678 extent_rtree_write_acquired(tsdn_t *tsdn, rtree_leaf_elm_t *elm_a, rtree_leaf_elm_t *elm_b, extent_t *extent, szind_t szind, bool slab) argument 688 extent_interior_register(tsdn_t *tsdn, rtree_ctx_t *rtree_ctx, extent_t *extent, szind_t szind) argument 935 extent_split_interior(tsdn_t *tsdn, arena_t *arena, extent_hooks_t **r_extent_hooks, rtree_ctx_t *rtree_ctx, extent_t **extent, extent_t **lead, extent_t **trail, extent_t **to_leak, extent_t **to_salvage, void *new_addr, size_t size, size_t pad, size_t alignment, bool slab, szind_t szind, bool growing_retained) argument 1012 extent_recycle_split(tsdn_t *tsdn, arena_t *arena, extent_hooks_t **r_extent_hooks, rtree_ctx_t *rtree_ctx, extents_t *extents, void *new_addr, size_t size, size_t pad, size_t alignment, bool slab, szind_t szind, extent_t *extent, bool growing_retained) argument 1061 extent_recycle(tsdn_t *tsdn, arena_t *arena, extent_hooks_t **r_extent_hooks, extents_t *extents, void *new_addr, size_t size, size_t pad, size_t alignment, bool slab, szind_t szind, bool *zero, bool *commit, bool growing_retained) argument 1226 extent_grow_retained(tsdn_t *tsdn, arena_t *arena, extent_hooks_t **r_extent_hooks, size_t size, size_t pad, size_t alignment, bool slab, szind_t szind, bool *zero, bool *commit) argument 1390 extent_alloc_retained(tsdn_t *tsdn, arena_t *arena, extent_hooks_t **r_extent_hooks, void *new_addr, size_t size, size_t pad, size_t alignment, bool slab, szind_t szind, bool *zero, bool *commit) argument 1419 extent_alloc_wrapper_hard(tsdn_t *tsdn, arena_t *arena, extent_hooks_t **r_extent_hooks, void *new_addr, size_t size, size_t pad, size_t alignment, bool slab, szind_t szind, bool *zero, bool *commit) argument 1458 extent_alloc_wrapper(tsdn_t *tsdn, arena_t *arena, extent_hooks_t **r_extent_hooks, void *new_addr, size_t size, size_t pad, size_t alignment, bool slab, szind_t szind, bool *zero, bool *commit) argument [all...] |
H A D | large.c | 181 szind_t szind = sz_size2index(usize); local 182 extent_szind_set(extent, szind); 184 (uintptr_t)extent_addr_get(extent), szind, false);
|
H A D | jemalloc.c | 2211 (uintptr_t)ptr, true, &alloc_ctx.szind, &alloc_ctx.slab); 2212 assert(alloc_ctx.szind != NSIZES); 2216 usize = sz_index2size(alloc_ctx.szind); 2219 usize = sz_index2size(alloc_ctx.szind); 2252 * determine szind directly. 2254 alloc_ctx.szind = sz_size2index(usize); 2261 rtree_ctx, (uintptr_t)ptr, true, &dbg_ctx.szind, 2263 assert(dbg_ctx.szind == alloc_ctx.szind); 2269 (uintptr_t)ptr, true, &alloc_ctx.szind, [all...] |
H A D | arena.c | 335 szind_t szind = sz_size2index(usize); local 340 szind, zero, &commit); 344 false, szind, zero, &commit); 349 usize, sz_large_pad, alignment, false, szind, zero, 985 (uintptr_t)ptr, true, &alloc_ctx.szind, &alloc_ctx.slab); 986 assert(alloc_ctx.szind != NSIZES); 989 usize = sz_index2size(alloc_ctx.szind); 1094 szind_t szind) { 1104 bin_info->slab_size, 0, PAGE, true, szind, &zero, &commit); 1121 szind_t szind local 1092 arena_slab_alloc_hard(tsdn_t *tsdn, arena_t *arena, extent_hooks_t **r_extent_hooks, const bin_info_t *bin_info, szind_t szind) argument 1422 szind_t szind = sz_size2index(usize); local [all...] |