peacock-data-public-datasets-idc-cronscript
/
venv
/lib
/python3.10
/site-packages
/deepspeed
/ops
/csrc
/includes
/simd.h
// Copyright (c) Microsoft Corporation. | |
// SPDX-License-Identifier: Apache-2.0 | |
// DeepSpeed Team | |
union AVX_Data { | |
__m512 data; | |
__m256 data; | |
// float data_f[16]; | |
}; | |
template <int span> | |
inline void simd_store(float* dst, AVX_Data* src, bool half_precision) | |
{ | |
size_t width = (half_precision ? SIMD_WIDTH / 2 : SIMD_WIDTH); | |
for (size_t i = 0; i < span; ++i) { SIMD_STORE2(dst + width * i, src[i].data, half_precision); } | |
} | |
template <int span> | |
inline void simd_load(AVX_Data* dst, float* src, bool half_precision) | |
{ | |
size_t width = (half_precision ? SIMD_WIDTH / 2 : SIMD_WIDTH); | |
for (size_t i = 0; i < span; ++i) { dst[i].data = SIMD_LOAD2(src + width * i, half_precision); } | |
} | |
template <int span> | |
inline void simd_fma(AVX_Data* dst, AVX_Data* src_m_l, AVX_Data src_m_r, AVX_Data* src_a) | |
{ | |
for (size_t i = 0; i < span; ++i) { | |
dst[i].data = SIMD_FMA(src_m_l[i].data, src_m_r.data, src_a[i].data); | |
} | |
} | |
template <int span> | |
inline void simd_fma(AVX_Data* dst, AVX_Data* src_m_l, AVX_Data src_m_r, AVX_Data src_a) | |
{ | |
for (size_t i = 0; i < span; ++i) { | |
dst[i].data = SIMD_FMA(src_m_l[i].data, src_m_r.data, src_a.data); | |
} | |
} | |
template <int span> | |
inline void simd_fma(AVX_Data* dst, AVX_Data* src_m_l, AVX_Data* src_m_r, AVX_Data* src_a) | |
{ | |
for (size_t i = 0; i < span; ++i) { | |
dst[i].data = SIMD_FMA(src_m_l[i].data, src_m_r[i].data, src_a[i].data); | |
} | |
} | |
template <int span> | |
inline void simd_sqrt(AVX_Data* dst, AVX_Data* src) | |
{ | |
for (size_t i = 0; i < span; ++i) { dst[i].data = SIMD_SQRT(src[i].data); } | |
} | |
template <int span> | |
inline void simd_add(AVX_Data* dst, AVX_Data* src_a_l, AVX_Data src_a_r) | |
{ | |
for (size_t i = 0; i < span; ++i) { dst[i].data = SIMD_ADD(src_a_l[i].data, src_a_r.data); } | |
} | |
template <int span> | |
inline void simd_add(AVX_Data* dst, AVX_Data* src_a_l, AVX_Data* src_a_r) | |
{ | |
for (size_t i = 0; i < span; ++i) { dst[i].data = SIMD_ADD(src_a_l[i].data, src_a_r[i].data); } | |
} | |
template <int span> | |
inline void simd_mul(AVX_Data* dst, AVX_Data* src_a_l, AVX_Data src_a_r) | |
{ | |
for (size_t i = 0; i < span; ++i) { dst[i].data = SIMD_MUL(src_a_l[i].data, src_a_r.data); } | |
} | |
template <int span> | |
inline void simd_mul(AVX_Data* dst, AVX_Data* src_a_l, AVX_Data* src_a_r) | |
{ | |
for (size_t i = 0; i < span; ++i) { dst[i].data = SIMD_MUL(src_a_l[i].data, src_a_r[i].data); } | |
} | |
template <int span> | |
inline void simd_div(AVX_Data* dst, AVX_Data* src_a_l, AVX_Data* src_a_r) | |
{ | |
for (size_t i = 0; i < span; ++i) { dst[i].data = SIMD_DIV(src_a_l[i].data, src_a_r[i].data); } | |
} | |
template <int span> | |
inline void simd_and(AVX_Data* dst, AVX_Data* src_a_l, AVX_Data src_a_r) | |
{ | |
for (size_t i = 0; i < span; ++i) { dst[i].data = SIMD_AND(src_a_l[i].data, src_a_r.data); } | |
} | |
template <int span> | |
inline void simd_and(AVX_Data* dst, AVX_Data* src_a_l, AVX_Data* src_a_r) | |
{ | |
for (size_t i = 0; i < span; ++i) { dst[i].data = SIMD_AND(src_a_l[i].data, src_a_r[i].data); } | |
} | |
template <int span> | |
inline void simd_andnot(AVX_Data* dst, AVX_Data* src_a_l, AVX_Data src_a_r) | |
{ | |
for (size_t i = 0; i < span; ++i) { dst[i].data = SIMD_ANDNOT(src_a_l[i].data, src_a_r.data); } | |
} | |
template <int span> | |
inline void simd_andnot(AVX_Data* dst, AVX_Data* src_a_l, AVX_Data* src_a_r) | |
{ | |
for (size_t i = 0; i < span; ++i) { | |
dst[i].data = SIMD_ANDNOT(src_a_l[i].data, src_a_r[i].data); | |
} | |
} | |
template <int span> | |
inline void simd_or(AVX_Data* dst, AVX_Data* src_a_l, AVX_Data src_a_r) | |
{ | |
for (size_t i = 0; i < span; ++i) { dst[i].data = SIMD_OR(src_a_l[i].data, src_a_r.data); } | |
} | |
template <int span> | |
inline void simd_or(AVX_Data* dst, AVX_Data* src_a_l, AVX_Data* src_a_r) | |
{ | |
for (size_t i = 0; i < span; ++i) { dst[i].data = SIMD_OR(src_a_l[i].data, src_a_r[i].data); } | |
} | |
template <int span> | |
inline void simd_xor(AVX_Data* dst, AVX_Data* src_a_l, AVX_Data src_a_r) | |
{ | |
for (size_t i = 0; i < span; ++i) { dst[i].data = SIMD_XOR(src_a_l[i].data, src_a_r.data); } | |
} | |
template <int span> | |
inline void simd_xor(AVX_Data* dst, AVX_Data* src_a_l, AVX_Data* src_a_r) | |
{ | |
for (size_t i = 0; i < span; ++i) { dst[i].data = SIMD_XOR(src_a_l[i].data, src_a_r[i].data); } | |
} | |