/netbsd-current/external/bsd/jemalloc/include/jemalloc/internal/ |
H A D | arena_inlines_b.h | 12 arena_prof_tctx_get(tsdn_t *tsdn, const void *ptr, alloc_ctx_t *alloc_ctx) { argument 17 if (alloc_ctx == NULL) { 23 if (unlikely(!alloc_ctx->slab)) { 32 alloc_ctx_t *alloc_ctx, prof_tctx_t *tctx) { 37 if (alloc_ctx == NULL) { 43 if (unlikely(!alloc_ctx->slab)) { 191 alloc_ctx_t *alloc_ctx, bool slow_path) { 203 if (alloc_ctx != NULL) { 204 szind = alloc_ctx->szind; 205 slab = alloc_ctx 31 arena_prof_tctx_set(tsdn_t *tsdn, const void *ptr, UNUSED size_t usize, alloc_ctx_t *alloc_ctx, prof_tctx_t *tctx) argument [all...] |
H A D | prof_inlines_b.h | 40 prof_tctx_get(tsdn_t *tsdn, const void *ptr, alloc_ctx_t *alloc_ctx) { argument 44 return arena_prof_tctx_get(tsdn, ptr, alloc_ctx); 49 alloc_ctx_t *alloc_ctx, prof_tctx_t *tctx) { 53 arena_prof_tctx_set(tsdn, ptr, usize, alloc_ctx, tctx); 122 prof_malloc(tsdn_t *tsdn, const void *ptr, size_t usize, alloc_ctx_t *alloc_ctx, argument 131 prof_tctx_set(tsdn, ptr, usize, alloc_ctx, 195 prof_free(tsd_t *tsd, const void *ptr, size_t usize, alloc_ctx_t *alloc_ctx) { argument 196 prof_tctx_t *tctx = prof_tctx_get(tsd_tsdn(tsd), ptr, alloc_ctx); 48 prof_tctx_set(tsdn_t *tsdn, const void *ptr, size_t usize, alloc_ctx_t *alloc_ctx, prof_tctx_t *tctx) argument
|
H A D | jemalloc_internal_inlines_c.h | 104 idalloctm(tsdn_t *tsdn, void *ptr, tcache_t *tcache, alloc_ctx_t *alloc_ctx, argument 118 arena_dalloc(tsdn, ptr, tcache, alloc_ctx, slow_path); 128 alloc_ctx_t *alloc_ctx, bool slow_path) { 131 arena_sdalloc(tsdn, ptr, size, tcache, alloc_ctx, slow_path); 127 isdalloct(tsdn_t *tsdn, void *ptr, size_t size, tcache_t *tcache, alloc_ctx_t *alloc_ctx, bool slow_path) argument
|
/netbsd-current/external/bsd/jemalloc/dist/include/jemalloc/internal/ |
H A D | arena_inlines_b.h | 12 arena_prof_tctx_get(tsdn_t *tsdn, const void *ptr, alloc_ctx_t *alloc_ctx) { argument 17 if (alloc_ctx == NULL) { 23 if (unlikely(!alloc_ctx->slab)) { 32 alloc_ctx_t *alloc_ctx, prof_tctx_t *tctx) { 37 if (alloc_ctx == NULL) { 43 if (unlikely(!alloc_ctx->slab)) { 191 alloc_ctx_t *alloc_ctx, bool slow_path) { 203 if (alloc_ctx != NULL) { 204 szind = alloc_ctx->szind; 205 slab = alloc_ctx 31 arena_prof_tctx_set(tsdn_t *tsdn, const void *ptr, UNUSED size_t usize, alloc_ctx_t *alloc_ctx, prof_tctx_t *tctx) argument [all...] |
H A D | prof_inlines_b.h | 40 prof_tctx_get(tsdn_t *tsdn, const void *ptr, alloc_ctx_t *alloc_ctx) { argument 44 return arena_prof_tctx_get(tsdn, ptr, alloc_ctx); 49 alloc_ctx_t *alloc_ctx, prof_tctx_t *tctx) { 53 arena_prof_tctx_set(tsdn, ptr, usize, alloc_ctx, tctx); 122 prof_malloc(tsdn_t *tsdn, const void *ptr, size_t usize, alloc_ctx_t *alloc_ctx, argument 131 prof_tctx_set(tsdn, ptr, usize, alloc_ctx, 195 prof_free(tsd_t *tsd, const void *ptr, size_t usize, alloc_ctx_t *alloc_ctx) { argument 196 prof_tctx_t *tctx = prof_tctx_get(tsd_tsdn(tsd), ptr, alloc_ctx); 48 prof_tctx_set(tsdn_t *tsdn, const void *ptr, size_t usize, alloc_ctx_t *alloc_ctx, prof_tctx_t *tctx) argument
|
H A D | jemalloc_internal_inlines_c.h | 104 idalloctm(tsdn_t *tsdn, void *ptr, tcache_t *tcache, alloc_ctx_t *alloc_ctx, argument 118 arena_dalloc(tsdn, ptr, tcache, alloc_ctx, slow_path); 128 alloc_ctx_t *alloc_ctx, bool slow_path) { 131 arena_sdalloc(tsdn, ptr, size, tcache, alloc_ctx, slow_path); 127 isdalloct(tsdn_t *tsdn, void *ptr, size_t size, tcache_t *tcache, alloc_ctx_t *alloc_ctx, bool slow_path) argument
|
/netbsd-current/external/bsd/jemalloc/dist/src/ |
H A D | jemalloc.c | 1908 alloc_ctx_t alloc_ctx; local 1910 alloc_ctx.slab = (usize <= SMALL_MAXCLASS); 1920 alloc_ctx.slab = false; 1929 prof_malloc(tsd_tsdn(tsd), allocation, usize, &alloc_ctx, tctx); local 2200 alloc_ctx_t *alloc_ctx) { 2206 old_tctx = prof_tctx_get(tsd_tsdn(tsd), old_ptr, alloc_ctx); 2236 alloc_ctx_t alloc_ctx; local 2239 (uintptr_t)ptr, true, &alloc_ctx.szind, &alloc_ctx.slab); 2240 assert(alloc_ctx 2199 irealloc_prof(tsd_t *tsd, void *old_ptr, size_t old_usize, size_t usize, alloc_ctx_t *alloc_ctx) argument 2254 idalloctm(tsd_tsdn(tsd), ptr, tcache, &alloc_ctx, false, local 2257 idalloctm(tsd_tsdn(tsd), ptr, tcache, &alloc_ctx, false, local 2275 alloc_ctx_t alloc_ctx, *ctx; local 2357 alloc_ctx_t alloc_ctx; local 2654 irallocx_prof(tsd_t *tsd, void *old_ptr, size_t old_usize, size_t size, size_t alignment, size_t *usize, bool zero, tcache_t *tcache, arena_t *arena, alloc_ctx_t *alloc_ctx) argument 2736 alloc_ctx_t alloc_ctx; local 2815 ixallocx_prof(tsd_t *tsd, void *ptr, size_t old_usize, size_t size, size_t extra, size_t alignment, bool zero, alloc_ctx_t *alloc_ctx) argument 2880 alloc_ctx_t alloc_ctx; local [all...] |
H A D | arena.c | 985 alloc_ctx_t alloc_ctx; local 988 (uintptr_t)ptr, true, &alloc_ctx.szind, &alloc_ctx.slab); 989 assert(alloc_ctx.szind != NSIZES); 992 usize = sz_index2size(alloc_ctx.szind); 997 prof_free(tsd, ptr, usize, &alloc_ctx);
|