Les questions de cette section ont été posées aux développeurs impliqués dans l’analyse de données, l’ingénierie de données ou le machine learning, ou travaillant comme analyste de données, ingénieur de données ou data scientist. Cette enquête s’adressait aux développeurs, les résultats ne sont donc pas forcément représentatifs des professionnels du secteur du big data dans leur ensemble.
Big Data
Les éditeurs de type tableur sont les outils les plus utilisés pour l’analyse et la visualisation des données (46 %).
La majorité des développeurs big data n’utilisent pas de plateforme d’analyse de données spécifique (68 %). La plateforme d’analyse de données la plus utilisée est Google Colab (19 %).
Jupyter est l’outil de big data le plus populaire. Il est utilisé par 32 % des développeurs big data. Les autres outils populaires sont Apache Spark (20 %) et Apache Kafka (17 %).
Les données sont principalement hébergées sur des serveurs internes (36 %) ou localement (26 %). AWS est utilisé pour l’hébergement des données par 21 % des répondant·e·s. Les autres types d’hébergement sont moins courants.
Lorsqu'ils me travaillent pas dans le secteur informatique, les ingénieurs de données sont le plus souvent employés dans les secteurs financiers, tandis que les spécialistes du machines learning travaillent plus souvent dans les secteurs de l’éducation et des sciences.
Python est utilisé avec Apache Spark par 66 % des participant·es, Java par 34 %, et Scala par 11 %.
10 % utilisent Apache Spark et Apache Kafka. 9 % utilisent Apache Spark et Apache Hadoop.
Les 3 langages les plus utilisés avec Apache Kafka sont Python, Java, and SQL.
R est plus largement utilisé en Russie (5 %), alors wu Python est plus utilisé en Asie (59 %).
Python et Java sont plus généralement utilisés avec Google Cloud. JavaScript et PHP sont généralement utilisés avec AWS et C# est le plus souvent associé avec Azure.
Jupyter et Apache Beam sont plus généralement utilisés avec Google Cloud. L’utilisation d’Apache Spark et Apache Kafka est plus fréquente chez les utilisateurs d’AWS.
Les spécialistes du machine learning privilégient l'utilisation de Python, C++ et C et utilisent moins souvent SQL et PHP que les développeurs impliqués dans l’analyse et l’ingénierie des données.
Python et R sont plutôt utilisés par les développeurs travaillant dans les domaines de l’éducation et des sciences.
L’utilisation de Jupyter est plus marquée dans l’éducation et les sciences. Apache Spark, Apache Kafka, Apache Hadoop et Apache Hive sont plus souvent utilisés dans le secteur bancaire.
Le plus grand nombre d’utilisateurs d’Apache Spark se trouve en Chine, en Inde, en Corée du Sud, en Espagne et en Amérique latine.
Merci du temps que vous nous avez accordé !
Nous espérons que vous avez trouvé ce rapport intéressant. N'hésitez pas à le partager avec vos ami·e·s et collègues.
Rejoignez le JetBrains Tech Insights Lab
Participez à des enquêtes et à des études sur l'expérience utilisateur pour aider les produits JetBrains à gagner en facilité d'utilisation, mais aussi en puissance. En participant à nos études, vous aurez également la possibilité de gagner des récompenses.
Si vous avez des questions ou des suggestions, contactez-nous à surveys@jetbrains.com.