Lines Matching refs:__a

44 // fill plain array __a[<__n>] with __t
47 __valarray_fill (_Tp* __restrict__ __a, size_t __n, const _Tp& __t)
48 { while (__n--) *__a++ = __t; }
50 // fill strided array __a[<__n-1 : __s>] with __t
53 __valarray_fill (_Tp* __restrict__ __a, size_t __n,
55 { for (size_t __i=0; __i<__n; ++__i, __a+=__s) *__a = __t; }
57 // fill indirect array __a[__i[<__n>]] with __i
60 __valarray_fill(_Tp* __restrict__ __a, const size_t* __restrict__ __i,
62 { for (size_t __j=0; __j<__n; ++__j, ++__i) __a[*__i] = __t; }
64 // copy plain array __a[<__n>] in __b[<__n>]
67 __valarray_copy (const _Tp* __restrict__ __a, size_t __n,
69 { memcpy (__b, __a, __n * sizeof(_Tp)); }
71 // copy strided array __a[<__n : __s>] in plain __b[<__n>]
74 __valarray_copy (const _Tp* __restrict__ __a, size_t __n, size_t __s,
76 { for (size_t __i=0; __i<__n; ++__i, ++__b, __a += __s) *__b = *__a; }
78 // copy plain __a[<__n>] in strided __b[<__n : __s>]
81 __valarray_copy (const _Tp* __restrict__ __a, _Tp* __restrict__ __b,
83 { for (size_t __i=0; __i<__n; ++__i, ++__a, __b+=__s) *__b = *__a; }
85 // copy indexed __a[__i[<__n>]] in plain __b[<__n>]
88 __valarray_copy (const _Tp* __restrict__ __a,
91 { for (size_t __j=0; __j<__n; ++__j, ++__b, ++__i) *__b = __a[*__i]; }
93 // copy plain __a[<__n>] in indexed __b[__i[<__n>]]
96 __valarray_copy (const _Tp* __restrict__ __a, size_t __n,
98 { for (size_t __j=0; __j<__n; ++__j, ++__a, ++__i) __b[*__i] = *__a; }
121 __valarray_fill (_Array<_Tp> __a, size_t __n, const _Tp& __t)
122 { __valarray_fill (__a._M_data, __n, __t); }
126 __valarray_fill (_Array<_Tp> __a, size_t __n, size_t __s, const _Tp& __t)
127 { __valarray_fill (__a._M_data, __n, __s, __t); }
131 __valarray_fill (_Array<_Tp> __a, _Array<size_t> __i,
133 { __valarray_fill (__a._M_data, __i._M_data, __n, __t); }
137 __valarray_copy (_Array<_Tp> __a, size_t __n, _Array<_Tp> __b)
138 { __valarray_copy (__a._M_data, __n, __b._M_data); }
142 __valarray_copy (_Array<_Tp> __a, size_t __n, size_t __s, _Array<_Tp> __b)
143 { __valarray_copy(__a._M_data, __n, __s, __b._M_data); }
147 __valarray_copy (_Array<_Tp> __a, _Array<_Tp> __b, size_t __n, size_t __s)
148 { __valarray_copy (__a._M_data, __b._M_data, __n, __s); }
152 __valarray_copy (_Array<_Tp> __a, _Array<size_t> __i,
154 { __valarray_copy (__a._M_data, __i._M_data, __b._M_data, __n); }
158 __valarray_copy (_Array<_Tp> __a, size_t __n, _Array<_Tp> __b,
160 { __valarray_copy (__a._M_data, __n, __b._M_data, __i._M_data); }
191 _Array_augmented_##_Name (_Array<_Tp> __a, size_t __n, const _Tp& __t) \
193 for (_Tp* __p=__a._M_data; __p<__a._M_data+__n; ++__p) \
199 _Array_augmented_##_Name (_Array<_Tp> __a, size_t __n, _Array<_Tp> __b) \
201 _Tp* __p (__a._M_data); \
208 _Array_augmented_##_Name (_Array<_Tp> __a, \
211 _Tp* __p (__a._M_data); \
217 _Array_augmented_##_Name (_Array<_Tp> __a, size_t __n, size_t __s, \
221 for (_Tp* __p=__a._M_data; __p<__a._M_data+__s*__n; __p+=__s, ++__q) \
227 _Array_augmented_##_Name (_Array<_Tp> __a, _Array<_Tp> __b, \
231 for (_Tp* __p=__a._M_data; __p<__a._M_data+__n; ++__p, __q+=__s) \
237 _Array_augmented_##_Name (_Array<_Tp> __a, size_t __s, \
240 _Tp* __p (__a._M_data); \
246 _Array_augmented_##_Name (_Array<_Tp> __a, _Array<size_t> __i, \
251 __a._M_data[*__j] _Op##= *__q; \
256 _Array_augmented_##_Name (_Array<_Tp> __a, size_t __n, \
259 _Tp* __p (__a._M_data); \
266 _Array_augmented_##_Name (_Array<_Tp> __a, _Array<size_t> __i, \
271 __a._M_data[*__j] _Op##= __e[__k]; \
276 _Array_augmented_##_Name (_Array<_Tp> __a, _Array<bool> __m, \
280 _Tp* __p (__a._M_data); \
292 _Array_augmented_##_Name (_Array<_Tp> __a, size_t __n, \
297 for (_Tp* __p=__a._M_data; __p<__a._M_data+__n; ++__p, ++ok, ++__q) { \
308 _Array_augmented_##_Name (_Array<_Tp> __a, _Array<bool> __m, \
312 _Tp* __p (__a._M_data); \