Searched refs:szind (Results 1 - 10 of 10) sorted by relevance

/freebsd-12-stable/contrib/jemalloc/include/jemalloc/internal/
H A Darena_inlines_b.h120 szind_t szind = rtree_szind_read(tsdn, &extents_rtree, rtree_ctx, local
122 assert(szind != NSIZES);
124 return sz_index2size(szind);
142 szind_t szind; local
144 (uintptr_t)ptr, false, &extent, &szind)) {
155 assert(szind != NSIZES);
157 return sz_index2size(szind);
167 szind_t szind; local
170 true, &szind, &slab);
175 assert(szind
[all...]
H A Dextent_inlines.h54 szind_t szind = (szind_t)((extent->e_bits & EXTENT_BITS_SZIND_MASK) >>
56 assert(szind <= NSIZES);
57 return szind;
62 szind_t szind = extent_szind_get_maybe_invalid(extent); local
63 assert(szind < NSIZES); /* Never call when "invalid". */
64 return szind;
236 extent_szind_set(extent_t *extent, szind_t szind) { argument
237 assert(szind <= NSIZES); /* NSIZES means "invalid". */
239 ((uint64_t)szind << EXTENT_BITS_SZIND_SHIFT);
304 bool slab, szind_t szind, size_
303 extent_init(extent_t *extent, arena_t *arena, void *addr, size_t size, bool slab, szind_t szind, size_t sn, extent_state_t state, bool zeroed, bool committed, bool dumpable) argument
[all...]
H A Drtree.h263 rtree_leaf_elm_t *elm, szind_t szind) {
264 assert(szind <= NSIZES);
269 uintptr_t bits = ((uintptr_t)szind << LG_VADDR) |
275 atomic_store_u(&elm->le_szind, szind, ATOMIC_RELEASE);
296 extent_t *extent, szind_t szind, bool slab) {
298 uintptr_t bits = ((uintptr_t)szind << LG_VADDR) |
304 rtree_leaf_elm_szind_write(tsdn, rtree, elm, szind);
315 rtree_leaf_elm_t *elm, szind_t szind, bool slab) {
316 assert(!slab || szind < NBINS);
319 * The caller implicitly assures that it is the only writer to the szind
262 rtree_leaf_elm_szind_write(UNUSED tsdn_t *tsdn, UNUSED rtree_t *rtree, rtree_leaf_elm_t *elm, szind_t szind) argument
295 rtree_leaf_elm_write(tsdn_t *tsdn, rtree_t *rtree, rtree_leaf_elm_t *elm, extent_t *extent, szind_t szind, bool slab) argument
314 rtree_leaf_elm_szind_slab_update(tsdn_t *tsdn, rtree_t *rtree, rtree_leaf_elm_t *elm, szind_t szind, bool slab) argument
386 rtree_write(tsdn_t *tsdn, rtree_t *rtree, rtree_ctx_t *rtree_ctx, uintptr_t key, extent_t *extent, szind_t szind, bool slab) argument
475 rtree_szind_slab_update(tsdn_t *tsdn, rtree_t *rtree, rtree_ctx_t *rtree_ctx, uintptr_t key, szind_t szind, bool slab) argument
[all...]
H A Darena_structs_b.h225 szind_t szind; member in struct:alloc_ctx_s
H A Dextent_externs.h36 size_t size, size_t pad, size_t alignment, bool slab, szind_t szind,
47 size_t alignment, bool slab, szind_t szind, bool *zero, bool *commit);
H A Darena_stats.h222 szind_t szind, uint64_t nrequests) {
224 arena_stats_add_u64(tsdn, arena_stats, &arena_stats->lstats[szind -
221 arena_stats_large_nrequests_add(tsdn_t *tsdn, arena_stats_t *arena_stats, szind_t szind, uint64_t nrequests) argument
/freebsd-12-stable/contrib/jemalloc/src/
H A Dextent.c111 size_t usize, size_t pad, size_t alignment, bool slab, szind_t szind,
504 size_t alignment, bool slab, szind_t szind, bool *zero, bool *commit) {
511 new_addr, size, pad, alignment, slab, szind, zero, commit, false);
679 rtree_leaf_elm_t *elm_b, extent_t *extent, szind_t szind, bool slab) {
680 rtree_leaf_elm_write(tsdn, &extents_rtree, elm_a, extent, szind, slab);
682 rtree_leaf_elm_write(tsdn, &extents_rtree, elm_b, extent, szind,
689 szind_t szind) {
696 LG_PAGE), extent, szind, true);
754 szind_t szind = extent_szind_get_maybe_invalid(extent); local
756 extent_rtree_write_acquired(tsdn, elm_a, elm_b, extent, szind, sla
502 extents_alloc(tsdn_t *tsdn, arena_t *arena, extent_hooks_t **r_extent_hooks, extents_t *extents, void *new_addr, size_t size, size_t pad, size_t alignment, bool slab, szind_t szind, bool *zero, bool *commit) argument
678 extent_rtree_write_acquired(tsdn_t *tsdn, rtree_leaf_elm_t *elm_a, rtree_leaf_elm_t *elm_b, extent_t *extent, szind_t szind, bool slab) argument
688 extent_interior_register(tsdn_t *tsdn, rtree_ctx_t *rtree_ctx, extent_t *extent, szind_t szind) argument
935 extent_split_interior(tsdn_t *tsdn, arena_t *arena, extent_hooks_t **r_extent_hooks, rtree_ctx_t *rtree_ctx, extent_t **extent, extent_t **lead, extent_t **trail, extent_t **to_leak, extent_t **to_salvage, void *new_addr, size_t size, size_t pad, size_t alignment, bool slab, szind_t szind, bool growing_retained) argument
1012 extent_recycle_split(tsdn_t *tsdn, arena_t *arena, extent_hooks_t **r_extent_hooks, rtree_ctx_t *rtree_ctx, extents_t *extents, void *new_addr, size_t size, size_t pad, size_t alignment, bool slab, szind_t szind, extent_t *extent, bool growing_retained) argument
1061 extent_recycle(tsdn_t *tsdn, arena_t *arena, extent_hooks_t **r_extent_hooks, extents_t *extents, void *new_addr, size_t size, size_t pad, size_t alignment, bool slab, szind_t szind, bool *zero, bool *commit, bool growing_retained) argument
1226 extent_grow_retained(tsdn_t *tsdn, arena_t *arena, extent_hooks_t **r_extent_hooks, size_t size, size_t pad, size_t alignment, bool slab, szind_t szind, bool *zero, bool *commit) argument
1390 extent_alloc_retained(tsdn_t *tsdn, arena_t *arena, extent_hooks_t **r_extent_hooks, void *new_addr, size_t size, size_t pad, size_t alignment, bool slab, szind_t szind, bool *zero, bool *commit) argument
1419 extent_alloc_wrapper_hard(tsdn_t *tsdn, arena_t *arena, extent_hooks_t **r_extent_hooks, void *new_addr, size_t size, size_t pad, size_t alignment, bool slab, szind_t szind, bool *zero, bool *commit) argument
1458 extent_alloc_wrapper(tsdn_t *tsdn, arena_t *arena, extent_hooks_t **r_extent_hooks, void *new_addr, size_t size, size_t pad, size_t alignment, bool slab, szind_t szind, bool *zero, bool *commit) argument
[all...]
H A Dlarge.c181 szind_t szind = sz_size2index(usize); local
182 extent_szind_set(extent, szind);
184 (uintptr_t)extent_addr_get(extent), szind, false);
H A Djemalloc.c2211 (uintptr_t)ptr, true, &alloc_ctx.szind, &alloc_ctx.slab);
2212 assert(alloc_ctx.szind != NSIZES);
2216 usize = sz_index2size(alloc_ctx.szind);
2219 usize = sz_index2size(alloc_ctx.szind);
2252 * determine szind directly.
2254 alloc_ctx.szind = sz_size2index(usize);
2261 rtree_ctx, (uintptr_t)ptr, true, &dbg_ctx.szind,
2263 assert(dbg_ctx.szind == alloc_ctx.szind);
2269 (uintptr_t)ptr, true, &alloc_ctx.szind,
[all...]
H A Darena.c335 szind_t szind = sz_size2index(usize); local
340 szind, zero, &commit);
344 false, szind, zero, &commit);
349 usize, sz_large_pad, alignment, false, szind, zero,
985 (uintptr_t)ptr, true, &alloc_ctx.szind, &alloc_ctx.slab);
986 assert(alloc_ctx.szind != NSIZES);
989 usize = sz_index2size(alloc_ctx.szind);
1094 szind_t szind) {
1104 bin_info->slab_size, 0, PAGE, true, szind, &zero, &commit);
1121 szind_t szind local
1092 arena_slab_alloc_hard(tsdn_t *tsdn, arena_t *arena, extent_hooks_t **r_extent_hooks, const bin_info_t *bin_info, szind_t szind) argument
1422 szind_t szind = sz_size2index(usize); local
[all...]

Completed in 119 milliseconds