اكثر اسئلة واجوبة المقابلات طلبا والاختبارات عبر الإنترنت
منصة تعليمية للتحضير للمقابلات والاختبارات عبر الإنترنت والدروس والتدريب المباشر

طوّر مهاراتك من خلال مسارات تعلم مركزة واختبارات تجريبية ومحتوى جاهز للمقابلات.

يجمع WithoutBook أسئلة المقابلات حسب الموضوع والاختبارات العملية عبر الإنترنت والدروس وأدلة المقارنة في مساحة تعلم متجاوبة واحدة.

التحضير للمقابلة

الاختبارات التجريبية

اجعلها الصفحة الرئيسية

احفظ هذه الصفحة في المفضلة

الاشتراك عبر البريد الإلكتروني
مقابلات تجريبية مباشرة من WithoutBook PySpark موضوعات مقابلات ذات صلة: 13

Interview Questions and Answers

تعرّف على اهم اسئلة واجوبة مقابلات PySpark للمبتدئين واصحاب الخبرة للاستعداد لمقابلات العمل.

إجمالي الاسئلة: 30 Interview Questions and Answers

افضل مقابلة تجريبية مباشرة يجب مشاهدتها قبل المقابلة

تعرّف على اهم اسئلة واجوبة مقابلات PySpark للمبتدئين واصحاب الخبرة للاستعداد لمقابلات العمل.

Interview Questions and Answers

ابحث عن سؤال لعرض الاجابة.

اسئلة واجوبة مستوى المبتدئين / حديثي التخرج

سؤال 1

What is PySpark?

PySpark is the Python API for Apache Spark, a fast and general-purpose cluster computing system.

Example:

from pyspark.sql import SparkSession

spark = SparkSession.builder.appName('example').getOrCreate()
احفظ للمراجعة

احفظ للمراجعة

احفظ هذا العنصر في الإشارات المرجعية، او حدده كصعب، او ضعه في مجموعة مراجعة.

افتح مكتبتي التعليمية
هل هذا مفيد؟
اضف تعليقا عرض التعليقات
سؤال 2

Explain the purpose of the 'groupBy' operation in PySpark.

'groupBy' is used to group the data based on one or more columns. It is often followed by aggregation functions to perform operations on each group.

Example:

grouped_data = df.groupBy('Category').agg({'Price': 'mean'})
احفظ للمراجعة

احفظ للمراجعة

احفظ هذا العنصر في الإشارات المرجعية، او حدده كصعب، او ضعه في مجموعة مراجعة.

افتح مكتبتي التعليمية
هل هذا مفيد؟
اضف تعليقا عرض التعليقات
سؤال 3

Explain the concept of a SparkSession in PySpark.

SparkSession is the entry point to any PySpark functionality. It is used to create DataFrames, register DataFrames as tables, and execute SQL queries.

Example:

from pyspark.sql import SparkSession

spark = SparkSession.builder.appName('example').getOrCreate()
احفظ للمراجعة

احفظ للمراجعة

احفظ هذا العنصر في الإشارات المرجعية، او حدده كصعب، او ضعه في مجموعة مراجعة.

افتح مكتبتي التعليمية
هل هذا مفيد؟
اضف تعليقا عرض التعليقات
سؤال 4

Explain the purpose of the 'collect' action in PySpark.

The 'collect' action retrieves all elements of a distributed dataset (RDD or DataFrame) and brings them to the driver program.

Example:

data = df.collect()
احفظ للمراجعة

احفظ للمراجعة

احفظ هذا العنصر في الإشارات المرجعية، او حدده كصعب، او ضعه في مجموعة مراجعة.

افتح مكتبتي التعليمية
هل هذا مفيد؟
اضف تعليقا عرض التعليقات
سؤال 5

How can you perform a union operation on two DataFrames in PySpark?

You can use the 'union' method to combine two DataFrames with the same schema.

Example:

result = df1.union(df2)
احفظ للمراجعة

احفظ للمراجعة

احفظ هذا العنصر في الإشارات المرجعية، او حدده كصعب، او ضعه في مجموعة مراجعة.

افتح مكتبتي التعليمية
هل هذا مفيد؟
اضف تعليقا عرض التعليقات
سؤال 6

What is the purpose of the 'groupBy' operation in PySpark?

'groupBy' is used to group the data based on one or more columns. It is often followed by aggregation functions to perform operations on each group.

Example:

grouped_data = df.groupBy('Category').agg({'Price': 'mean'})
احفظ للمراجعة

احفظ للمراجعة

احفظ هذا العنصر في الإشارات المرجعية، او حدده كصعب، او ضعه في مجموعة مراجعة.

افتح مكتبتي التعليمية
هل هذا مفيد؟
اضف تعليقا عرض التعليقات
سؤال 7

How can you create a temporary view from a PySpark DataFrame?

You can use the 'createOrReplaceTempView' method to create a temporary view from a PySpark DataFrame.

Example:

df.createOrReplaceTempView('temp_view')
احفظ للمراجعة

احفظ للمراجعة

احفظ هذا العنصر في الإشارات المرجعية، او حدده كصعب، او ضعه في مجموعة مراجعة.

افتح مكتبتي التعليمية
هل هذا مفيد؟
اضف تعليقا عرض التعليقات
سؤال 8

What is the purpose of the 'orderBy' operation in PySpark?

'OrderBy' is used to sort the rows of a DataFrame based on one or more columns.

Example:

result = df.orderBy('column')
احفظ للمراجعة

احفظ للمراجعة

احفظ هذا العنصر في الإشارات المرجعية، او حدده كصعب، او ضعه في مجموعة مراجعة.

افتح مكتبتي التعليمية
هل هذا مفيد؟
اضف تعليقا عرض التعليقات

الاكثر فائدة حسب تقييم المستخدمين:

حقوق النشر © 2026، WithoutBook.