Использование различных функций активации на выходном слое нейросети не является строго плохой идеей, однако следует учитывать несколько факторов:
1. **Задача и требования**: Если ваша задача требует разных типов выходных данных (например, бинарная классификация, регрессия и т.д.), то использование различных функций активации может быть оправдано. Например, сигмоида хорошо подходит для бинарной классификации, в то время как линейная функция может использоваться для регрессии.
2. **Совместимость выходов**: Важно понимать, как выходные значения будут использоваться. Если выходы должны быть объединены или интерпретироваться вместе, могут возникнуть проблемы с их совместимостью.
3. **Проблемы с обучением**: Смешивание функций активации может затруднить процесс обучения, так как разные функции имеют разные характеристики градиентов. Это может повлиять на стабильность и скорость сходимости обучения.
4. **Сложность архитектуры**: Использование разных функций активации может усложнить интерпретацию результатов и усложнить архитектуру самой модели.
В общем, если комбинирование различных функций активации на выходном слое обосновано и соответствует вашим требованиям, это может быть целесообразно. Однако, для достижения лучших результатов рекомендуется тщательно протестировать сеть с различными настройками и внимательно следить за производительностью модели.