-
Notifications
You must be signed in to change notification settings - Fork 28.4k
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
[SPARK-32512][SQL][TESTS][FOLLOWUP] Remove duplicate tests for ALTER TABLE .. PARTITIONS from DataSourceV2SQLSuite #30444
Changes from all commits
File filter
Filter by extension
Conversations
Jump to
Diff view
Diff view
There are no files selected for viewing
Original file line number | Diff line number | Diff line change | ||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
|
@@ -24,7 +24,6 @@ import scala.collection.JavaConverters._ | |||||||||||||||||||||||||||||||
|
||||||||||||||||||||||||||||||||
import org.apache.spark.SparkException | ||||||||||||||||||||||||||||||||
import org.apache.spark.sql._ | ||||||||||||||||||||||||||||||||
import org.apache.spark.sql.catalyst.InternalRow | ||||||||||||||||||||||||||||||||
import org.apache.spark.sql.catalyst.analysis.{CannotReplaceMissingTableException, NamespaceAlreadyExistsException, NoSuchDatabaseException, NoSuchNamespaceException, TableAlreadyExistsException} | ||||||||||||||||||||||||||||||||
import org.apache.spark.sql.catalyst.parser.ParseException | ||||||||||||||||||||||||||||||||
import org.apache.spark.sql.connector.catalog._ | ||||||||||||||||||||||||||||||||
|
@@ -43,7 +42,6 @@ class DataSourceV2SQLSuite | |||||||||||||||||||||||||||||||
with AlterTableTests with DatasourceV2SQLBase { | ||||||||||||||||||||||||||||||||
|
||||||||||||||||||||||||||||||||
import org.apache.spark.sql.connector.catalog.CatalogV2Implicits._ | ||||||||||||||||||||||||||||||||
import org.apache.spark.sql.execution.datasources.v2.DataSourceV2Implicits._ | ||||||||||||||||||||||||||||||||
|
||||||||||||||||||||||||||||||||
private val v2Source = classOf[FakeV2Provider].getName | ||||||||||||||||||||||||||||||||
override protected val v2Format = v2Source | ||||||||||||||||||||||||||||||||
|
@@ -1980,57 +1978,6 @@ class DataSourceV2SQLSuite | |||||||||||||||||||||||||||||||
} | ||||||||||||||||||||||||||||||||
} | ||||||||||||||||||||||||||||||||
|
||||||||||||||||||||||||||||||||
test("ALTER TABLE RECOVER PARTITIONS") { | ||||||||||||||||||||||||||||||||
val t = "testcat.ns1.ns2.tbl" | ||||||||||||||||||||||||||||||||
withTable(t) { | ||||||||||||||||||||||||||||||||
spark.sql(s"CREATE TABLE $t (id bigint, data string) USING foo") | ||||||||||||||||||||||||||||||||
val e = intercept[AnalysisException] { | ||||||||||||||||||||||||||||||||
sql(s"ALTER TABLE $t RECOVER PARTITIONS") | ||||||||||||||||||||||||||||||||
} | ||||||||||||||||||||||||||||||||
assert(e.message.contains("ALTER TABLE RECOVER PARTITIONS is only supported with v1 tables")) | ||||||||||||||||||||||||||||||||
} | ||||||||||||||||||||||||||||||||
} | ||||||||||||||||||||||||||||||||
|
||||||||||||||||||||||||||||||||
test("ALTER TABLE ADD PARTITION") { | ||||||||||||||||||||||||||||||||
val t = "testpart.ns1.ns2.tbl" | ||||||||||||||||||||||||||||||||
withTable(t) { | ||||||||||||||||||||||||||||||||
spark.sql(s"CREATE TABLE $t (id bigint, data string) USING foo PARTITIONED BY (id)") | ||||||||||||||||||||||||||||||||
spark.sql(s"ALTER TABLE $t ADD PARTITION (id=1) LOCATION 'loc'") | ||||||||||||||||||||||||||||||||
|
||||||||||||||||||||||||||||||||
val partTable = catalog("testpart").asTableCatalog | ||||||||||||||||||||||||||||||||
.loadTable(Identifier.of(Array("ns1", "ns2"), "tbl")).asInstanceOf[InMemoryPartitionTable] | ||||||||||||||||||||||||||||||||
assert(partTable.partitionExists(InternalRow.fromSeq(Seq(1)))) | ||||||||||||||||||||||||||||||||
|
||||||||||||||||||||||||||||||||
val partMetadata = partTable.loadPartitionMetadata(InternalRow.fromSeq(Seq(1))) | ||||||||||||||||||||||||||||||||
assert(partMetadata.containsKey("location")) | ||||||||||||||||||||||||||||||||
assert(partMetadata.get("location") == "loc") | ||||||||||||||||||||||||||||||||
} | ||||||||||||||||||||||||||||||||
} | ||||||||||||||||||||||||||||||||
Comment on lines
-1994
to
-2008
There was a problem hiding this comment. Choose a reason for hiding this commentThe reason will be displayed to describe this comment to others. Learn more. spark/sql/core/src/test/scala/org/apache/spark/sql/connector/AlterTablePartitionV2SQLSuite.scala Lines 43 to 57 in 1eb236b
|
||||||||||||||||||||||||||||||||
|
||||||||||||||||||||||||||||||||
test("ALTER TABLE RENAME PARTITION") { | ||||||||||||||||||||||||||||||||
val t = "testcat.ns1.ns2.tbl" | ||||||||||||||||||||||||||||||||
withTable(t) { | ||||||||||||||||||||||||||||||||
spark.sql(s"CREATE TABLE $t (id bigint, data string) USING foo PARTITIONED BY (id)") | ||||||||||||||||||||||||||||||||
val e = intercept[AnalysisException] { | ||||||||||||||||||||||||||||||||
sql(s"ALTER TABLE $t PARTITION (id=1) RENAME TO PARTITION (id=2)") | ||||||||||||||||||||||||||||||||
} | ||||||||||||||||||||||||||||||||
assert(e.message.contains("ALTER TABLE RENAME PARTITION is only supported with v1 tables")) | ||||||||||||||||||||||||||||||||
} | ||||||||||||||||||||||||||||||||
} | ||||||||||||||||||||||||||||||||
Comment on lines
-2010
to
-2019
There was a problem hiding this comment. Choose a reason for hiding this commentThe reason will be displayed to describe this comment to others. Learn more. spark/sql/core/src/test/scala/org/apache/spark/sql/connector/AlterTablePartitionV2SQLSuite.scala Lines 103 to 112 in 1eb236b
|
||||||||||||||||||||||||||||||||
|
||||||||||||||||||||||||||||||||
test("ALTER TABLE DROP PARTITION") { | ||||||||||||||||||||||||||||||||
val t = "testpart.ns1.ns2.tbl" | ||||||||||||||||||||||||||||||||
withTable(t) { | ||||||||||||||||||||||||||||||||
spark.sql(s"CREATE TABLE $t (id bigint, data string) USING foo PARTITIONED BY (id)") | ||||||||||||||||||||||||||||||||
spark.sql(s"ALTER TABLE $t ADD PARTITION (id=1) LOCATION 'loc'") | ||||||||||||||||||||||||||||||||
spark.sql(s"ALTER TABLE $t DROP PARTITION (id=1)") | ||||||||||||||||||||||||||||||||
|
||||||||||||||||||||||||||||||||
val partTable = | ||||||||||||||||||||||||||||||||
catalog("testpart").asTableCatalog.loadTable(Identifier.of(Array("ns1", "ns2"), "tbl")) | ||||||||||||||||||||||||||||||||
assert(!partTable.asPartitionable.partitionExists(InternalRow.fromSeq(Seq(1)))) | ||||||||||||||||||||||||||||||||
} | ||||||||||||||||||||||||||||||||
} | ||||||||||||||||||||||||||||||||
Comment on lines
-2021
to
-2032
There was a problem hiding this comment. Choose a reason for hiding this commentThe reason will be displayed to describe this comment to others. Learn more. spark/sql/core/src/test/scala/org/apache/spark/sql/connector/AlterTablePartitionV2SQLSuite.scala Lines 114 to 125 in 1eb236b
|
||||||||||||||||||||||||||||||||
|
||||||||||||||||||||||||||||||||
test("ALTER TABLE SerDe properties") { | ||||||||||||||||||||||||||||||||
val t = "testcat.ns1.ns2.tbl" | ||||||||||||||||||||||||||||||||
withTable(t) { | ||||||||||||||||||||||||||||||||
|
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
spark/sql/core/src/test/scala/org/apache/spark/sql/connector/AlterTablePartitionV2SQLSuite.scala
Lines 32 to 41 in 1eb236b