Databricks Runtime 13.1 (サポート期間終了)
Note
この Databricks Runtime バージョンのサポートは終了しました。 サポート終了日については、「サポート終了の履歴」を参照してください。 サポートされている Databricks Runtime のすべてのバージョンについては、「Databricks Runtime リリース ノートのバージョンと互換性」を参照してください。
次のリリース ノートには、Apache Spark 3.4.0 で稼働する Databricks Runtime 13.1 に関する情報が記載されています。
Databricks は、2023 年 5 月にこのバージョンをリリースしました。
新機能と機能強化
- JDK 17 のクラスター サポート (パブリック プレビュー)
- ストリーミング テーブルのデータを追加、変更、または削除する
- SQL を使用して Kafka を読み取る
- 新しい SQL 組み込み関数
- クラスター スコープの Python ライブラリに対する Unity Catalog のサポート
- Unity Catalog での最適化された書き込みの既定の有効化の拡張
- 構造化ストリーミング ワークロードでのステートフル オペレーターの高度なサポート
- Unity Catalog のタグ付けはパブリック プレビュー段階です
- 構造化ストリーミングの Pub/Sub のサポート
- 構造化ストリーミングでウォーターマーク内の重複を削除する
- パーティション列が切り捨てられた Iceberg テーブルからの差分変換のサポートが拡張されました
- Delta Lake での列マッピングを使用したストリーム スキーマの変更
- START VERSION の削除
- Python で使用できる新しい H3 式
JDK 17 のクラスター サポート (パブリック プレビュー)
Databricks は、Java Development Kit (JDK) 17 のクラスター サポートを提供するようになりました。 「Databricks SDK for Java」を参照してください。
ストリーミング テーブルのデータを追加、変更、または削除する
DML ステートメントを使用して、Delta Live Tables パイプラインによって Unity Catalog に発行されたストリーミング テーブルを変更できるようになりました。 「ストリーミング テーブル内のデータを追加、変更、または削除する」および「 ターゲット ストリーミング テーブルのデータを追加、変更、または削除する」を参照してください。 DML ステートメントを使用して、Databricks SQL で作成されたストリーミング テーブルを変更することもできます。
SQL を使って Kafka を読み取る
これで、read_kafka
SQL 関数を使用して Kafka データを読み取ることができます。 SQL を使用したストリーミングは、Delta Live Tables または Databricks SQL のストリーミング テーブルでのみサポートされます。 「read_kafka テーブル値関数」を参照してください。
新しい SQL 組み込み関数
次の分析関数が追加されました:
- array_prepend(array, elem) で
elem
が前に付加したarray
を返します。 - try_aes_decrypt(expr, key [, mode [, padding]]) AES 暗号化を使用して生成されたバイナリを復号化し、エラーが発生した場合は
NULL
を返します。 - sql_keywords() Azure Databricks SQL キーワードのテーブルを返します。
クラスター スコープの Python ライブラリに対する Unity Catalog のサポート
Unity Catalog には、ライブラリの使用に関するいくつかの制限があります。 Databricks Runtime 13.1 以降では、ワークスペース ファイルとしてアップロードされる Python ホイール ファイルなど、クラスター スコープの Python ライブラリがサポートされています。 DBFS ファイルパスを使用して参照されるライブラリは、DBFS ルート内でも、DBFS にマウントされた外部の場所でもサポートされていません。 Python 以外のライブラリはサポートされていません。 「クラスター ライブラリ」を参照してください。
Databricks Runtime 13.0 以前では、Unity カタログ対応ワークスペースで共有アクセス モードを使用するクラスターでは、クラスター スコープのライブラリはサポートされていません。
Unity Catalog での最適化された書き込みの既定の有効化の拡張
Unity Catalog に登録されている Delta テーブルの既定の最適化された書き込みサポートは、パーティション テーブルの CTAS
ステートメントと INSERT
操作を含むように拡張されました。 この動作は、SQL ウェアハウスの既定値に合わせて調整されます。 「Delta Lake on Azure Databricks の最適化された書き込み」を参照してください。
構造化ストリーミング ワークロードでのステートフル オペレーターの高度なサポート
複数のステートフル演算子を連結できるようになりました。つまり、ウィンドウ集計などの操作の出力を結合などの別のステートフル操作にフィードできます。 「ステートフル ストリーミングとは」を参照してください。
Unity Catalog のタグ付けはパブリック プレビュー段階です
シャロー クローンを使用して、既存の Unity Catalog マネージド テーブルから新しい Unity Catalog マネージド テーブルを作成できるようになりました。 「Unity Catalog テーブルのシャロー クローン」を参照してください。
構造化ストリーミングの Pub/Sub のサポート
組み込みのコネクタを使用して、構造化ストリーミングを使用して Google Pub/Sub にサブスクライブできるようになりました。 「Google Pub/Sub にサブスクライブする」を参照してください。
構造化ストリーミングでウォーターマーク内の重複を削除する
指定したウォーターマークしきい値と組み合わせて dropDuplicatesWithinWatermark
を使用して、構造化ストリーミング内のレコードを重複除去できるようになりました。 「ウォーターマーク内の重複をドロップする」を参照してください。
パーティション列が切り捨てられた Iceberg テーブルからの差分変換のサポートが拡張されました
int
、long
、string
型の切り詰められた列にパーティションが定義されている Iceberg テーブルで、CLONE
および CONVERT TO DELTA
を使用できるようになりました。 decimal
型の切り捨てられた列はサポートされていません。
Delta Lake での列マッピングを使用したストリーム スキーマの変更
スキーマ追跡の場所を指定して、列マッピングが有効になっている Delta テーブルからのストリーミングを有効にすることができます。 「列マッピングとスキーマの変更が伴うストリーミング」を参照してください。
START VERSION の削除
ALTER SHARE
で START VERSION
が非推奨になりました。
Python で使用できる新しい H3 式
h3_coverash3
式と h3_coverash3string
式が Python で使用できます。
バグ修正
Parquet failOnUnknownFields で型の不一致に関するデータが自動的に削除されなくなりました
Parquet ファイルが failOnUnknownFields
オプションのみを使用して読み取られた場合、または failOnNewColumns
スキーマ展開モードで自動ローダーを使用した場合、異なるデータ型を持つ列は失敗し、rescuedDataColumn
を使用することをお勧めします。 Integer 型、Short 型、Byte 型のデータ型のいずれかが指定されている場合は、自動ローダーが正しく読み取られ、型が復旧されなくなりました。 Parquet ファイルでは、他の 2 つの型のいずれかが提案されます。
破壊的変更
CVE-2023-32697 に対処するために sqlite-jdbc バージョンを 3.42.0.0 にアップグレードする
sqlite-jdbc バージョンを 3.8.11.2 から 3.42.0.0 にアップグレードします。 バージョン 3.42.0.0 の API は、3.8.11.2 と完全に互換性がありません。 コードで sqlite-jdbc を使用する場合は、sqlite-jdbc 互換性レポートをチェックして詳細を確認してください。 13.1 に移行して sqlite を使用する場合は、バージョン 3.42.0.0 でメソッドと戻り値の型を確認します。
ライブラリのアップグレード
- アップグレードされた Python ライブラリ:
- facets-overview (1.0.2 から 1.0.3 へ)
- filelock (3.10.7 から 3.12.0 へ)
- pyarrow (7.0.0 から 8.0.0 へ)
- tenacity (8.0.1 から 8.1.0 へ)
- アップグレードされた R ライブラリは次のとおりです。
- アップグレードされた Java ライブラリ:
- com.github.ben-manes.caffeine.caffeine (2.3.4 から 2.9.3 へ)
- io.delta.delta-sharing-spark_2.12 から 0.6.8 から 0.6.4
- net.snowflake.snowflake-jdbc (3.13.29 から 3.13.22)
- org.checkerframework.checker-qual (3.5.0 から 3.19.0 へ)
- org.scalactic.scalactic_2.12 (3.0.8 から 3.2.15 へ)
- org.scalatest.scalatest_2.12 (3.0.8 から 3.2.15 へ)
- org.xerial.sqlite-jdbc (3.8.11.2 から 3.42.0.0 へ)
Apache Spark
Databricks Runtime 13.1 には、Apache Spark 3.4.0 が含まれています。 このリリースには、Databricks Runtime 13.0 (サポート期間終了) に含まれるすべての Spark の修正プログラムおよび機能強化と、Spark に対して行われた次の追加のバグ修正と機能強化が含まれています:
- [SPARK-42719] [DBRRM-199][SC-131578] Revert “[SC-125225] `MapOutputTracker#getMap...
- [SPARK-39696] [DBRRM-166][SC-130056][CORE] Revert [SC-127830]/
- [SPARK-43331] [SC-130064][CONNECT] Spark Connect SparkSession.interruptAll を追加
- [SPARK-43332] [SC-130051][CONNECT][PYTHON] SparkConnectClient 用に ChannelBuilder を拡張できるようにする
- [SPARK-43323] [SC-129966][SQL][PYTHON] 例外を適切に処理するために Arrow を有効にして DataFrame.toPandas を修正する
- [SPARK-42940] [SC-129896][SS][CONNECT] ストリーミング クエリのセッション管理を改善する
- [SPARK-43032] [SC-125756] [CONNECT][SS] ストリーミング クエリ マネージャーの追加
- [SPARK-16484][SQL] DataSketches HllSketch のサポートを追加
- [SPARK-43260] [SC-129281][PYTHON] Spark SQL pandas 矢印の種類のエラーをエラー クラスに移行する。
- [SPARK-41766] [SC-129964][CORE] Executor 登録前に送信された使用停止要求を処理する
- [SPARK-43307] [SC-129971][PYTHON] PandasUDF 値エラーをエラー クラスに移行する
- [SPARK-43206] [SC-129903] [SS] [CONNECT] StreamingQuery exception() にスタック トレースが含まれる
- [SPARK-43311] [SC-129905][SS] RocksDB ステート ストア プロバイダーのメモリ管理の機能強化の追加
- [SPARK-43237] [SC-129898][CORE] イベント ログで null 例外メッセージを処理する
- [SPARK-43320] [SC-129899][SQL][HIVE] Hive 2.3.9 API を直接呼び出す
- [SPARK-43270] [SC-129897][PYTHON]
__dir__()
をpyspark.sql.dataframe.DataFrame
に実装して列を含める - [SPARK-43183] 元に戻す "[SC-128938][SS] 新しいコールバックを導入"...
- [SPARK-43143] [SC-129902] [SS] [CONNECT] Scala StreamingQuery awaitTermination()
- [SPARK-43257] [SC-129675][SQL] エラー クラス _LEGACY_ERROR_TEMP_2022 を内部エラーで置き換える
- [SPARK-43198] [SC-129470][CONNECT] "クラス アンモナイトを初期化できませんでした..." の修正 フィルター使用時のエラー
- [SPARK-43165] [SC-129777][SQL] canWrite を DataTypeUtils に移動する
- [SPARK-43298] [SC-129729][PYTHON][ML] スカラー入力で predict_batch_udf がバッチ サイズ 1 で失敗する
- [SPARK-43298] [SC-129700]Revert "[PYTHON][ML] スカラー入力で predict_batch_udf がバッチ サイズ 1 で失敗する"
- [SPARK-43052] [SC-129663][CORE] イベント ログで null ファイル名でスタック トレースを処理する
- [SPARK-43183] [SC-128938][SS] StreamingQueryListener に新しいコールバック "onQueryIdle" を導入する
- [SPARK-43209] [SC-129190][CONNECT][PYTHON] 式エラーをエラー クラスに移行する
- [SPARK-42151] [SC-128754][SQL] UPDATE の割り当てをテーブル属性に合わせる
- [SPARK-43134] [SC-129468] [CONNECT] [SS] JVM クライアント StreamingQuery exception() API
- [SPARK-43298] [SC-129729][PYTHON][ML] スカラー入力で predict_batch_udf がバッチ サイズ 1 で失敗する
- [SPARK-43248] [SC-129660][SQL] パーティション統計を収集する並列でのパスの不要なシリアル化/逆シリアル化
- [SPARK-43274] [SC-129464][SPARK-43275][PYTHON][CONNECT]
PySparkNotImplementedError
の導入 - [SPARK-43146] [SC-128804][CONNECT][PYTHON] repr と repr_html の一括評価を実装する
- [SPARK-42953] [SC-129469][Connect][Followup] Scala クライアント UDF テストの Maven テスト ビルドを修正
- [SPARK-43144] [SC-129280] Scala Client DataStreamReader table() API
- [SPARK-43136] [SC-129358][CONNECT] groupByKey + mapGroup + coGroup 関数の追加
- [SPARK-43156] [SC-129672][SC-128532][SQL] 相関スカラー サブクエリの
COUNT(*) is null
バグを修正 - [SPARK-43046] [SC-129110] [SS] [Connect] 実装された Python API dropDuplicatesWithinWatermark for Spark Connect
- [SPARK-43199] [SC-129467][SQL] Make InlineCTE idempotent
- [SPARK-43293] [SC-129657][SQL]
__qualified_access_only
は通常の列では無視する必要がある - [SPARK-43276] [SC-129461][CONNECT][PYTHON] Spark Connect Window のエラーをエラー クラスに移行する
- [SPARK-43174] [SC-129109][SQL] SparkSQLCLIDriver コンピューターの修正
- [SPARK-43084] [SC-128654] [SS] spark connect の applyInPandasWithState サポートを追加する
- [SPARK-43119] [SC-129040][SQL] JDBC API と TVF を使用した SQL キーワードの動的な取得のサポート
- [SPARK-43082] [SC-129112][CONNECT][PYTHON] Spark Connect で矢印が最適化された Python UDF
- [SPARK-43085] [SC-128432][SQL] マルチパート テーブル名の列の既定割り当てのサポート
- [SPARK-43226] [LC-671] ファイル定数メタデータの抽出器を定義する
- [SPARK-43210] [SC-129189][CONNECT][PYTHON]
PySparkAssertionError
の導入 - [SPARK-43214] [SC-129199][SQL] LocalTableScanExec/CommandResultExec のドライバー側メトリックをポストする
- [SPARK-43285] [SC-129347] JDK 17 で ReplE2ESuite が一貫して失敗する問題を修正
- [SPARK-43268] [SC-129249][SQL] メッセージで例外が作成されるときに適切なエラー クラスを使用する
- [SPARK-43142] [SC-129299] 特殊文字を持つ属性に対する DSL 式を修正する
- [SPARK-43129] [SC-128896] Spark Connect をストリーミングするための Scala コア API
- [SPARK-43233] [SC-129250] [SS] トピック パーティション、オフセット範囲、タスク ID の Kafka バッチ読み取りにログを追加する
- [SPARK-43249] [SC-129195][CONNECT] SQL コマンドの不足している統計を修正
- [SPARK-42945] [SC-129188][CONNECT] Spark Connect でのサポート PYSPARK_JVM_STACKTRACE_ENABLED
- [SPARK-43178] [SC-129197][CONNECT][PYTHON] UDF エラーを PySpark エラー フレームワークに移行する
- [SPARK-43123] [SC-128494][SQL] 内部フィールド メタデータをカタログにリークしないようにする
- [SPARK-43217] [SC-129205] findNestedField の入れ子になったマップ/配列を正しく再帰する
- [SPARK-43243] [SC-129294][PYTHON][CONNECT] Python の printSchema にレベル パラメーターを追加する
- [SPARK-43230] [SC-129191][CONNECT]
DataFrameNaFunctions.fillna
の単純化 - [SPARK-43088] [SC-128403][SQL] CTAS/RTAS での RequiresDistributionAndOrdering の尊重
- [SPARK-43234] [SC-129192][CONNECT][PYTHON] Conect DataFrame からエラー クラスに
ValueError
を移行する - [SPARK-43212] [SC-129187][SS][PYTHON] 構造化ストリーミング エラーをエラー クラスに移行する
- [SPARK-43239] [SC-129186][PS] info() から削除
null_counts
する - [SPARK-43190] [SC-128930][SQL] ListQuery.childOutput は子出力と一致している必要がある
- [SPARK-43191] [SC-128924][CORE] Hadoop CallerContext の直接呼び出しでリフレクションを置き換える
- [SPARK-43193] [SC-129042][SS] HADOOP-12074 の回避策を削除する
- [SPARK-42657] [SC-128621][CONNECT] クライアント側 REPL クラスファイルを見つけて、成果物としてサーバーに転送するサポート
- [SPARK-43098] [SC-77059][SQL] スカラー サブクエリに group by 句がある場合の COUNT の正確性のバグを修正する
- [SPARK-43213] [SC-129062][PYTHON] バニラ PySpark に
DataFrame.offset
を追加 - [SPARK-42982] [SC-128400][CONNECT][PYTHON] 指定されたスキーマ ddl を考慮して createDataFrame を修正
- [SPARK-43124] [SC-129011][SQL] Dataset.show projects CommandResults locally
- [SPARK-42998] [SC-127422][CONNECT][PYTHON] Null 構造体を使用して DataFrame.collect を修正する
- [SPARK-41498] [SC-125343]Revert "Union を介してメタデータを伝達"
- [SPARK-42960] [SC-129010] [CONNECT] [SS] Python でストリーミング クエリ用の await_termination() と exception() API を追加する
- [SPARK-42552] [SC-128824][SQL] antlr パーサーの 2 段階解析戦略を修正する
- [SPARK-43207] [SC-128937][CONNECT] リテラル式から値を抽出するヘルパー関数を追加する
- [SPARK-43186] [SC-128841][SQL][HIVE] FileSinkDesc の回避策を削除する
- [SPARK-43107] [SC-128533][SQL] ブロードキャスト結合ストリーム側で適用される結合内の結合バケットを結合する
- [SPARK-43195] [SC-128922][CORE] HadoopFSUtils で不要なシリアル化可能ラッパーを削除する
- [SPARK-43137] [SC-128828][SQL] 位置が折りたたみ可能で正の場合は ArrayInsert を改善する。
- [SPARK-37829] [SC-128827][SQL] Dataframe.joinWith outer-join は、一致しない行の null 値を返す必要がある
- [SPARK-43042] [SC-128602] [SS] [接続] DataStreamReader の table() API サポートを追加する
- [SPARK-43153] [SC-128753][CONNECT] データフレームがローカルの場合に Spark の実行をスキップする
- [SPARK-43064] [SC-128496][SQL] Spark SQL CLI の [SQL] タブに表示するステートメントは 1 回だけ
- [SPARK-43126] [SC-128447][SQL] 2 つの Hive UDF 式をステートフルとしてマークする
- [SPARK-43111] [SC-128750][PS][CONNECT][PYTHON] 入れ子になった
if
ステートメントを単一のif
ステートメントにマージする - [SPARK-43113] [SC-128749][SQL] バインドされた条件のコードを生成するときにストリーム側変数を評価する
- [SPARK-42895] [SC-127258][CONNECT] 停止した Spark セッションのエラー メッセージを改善する
- [SPARK-42884] [SC-126662][CONNECT] アンモナイト REPL 統合の追加
- [SPARK-43168] [SC-128674][SQL] Datatype クラスから PhysicalDataType メソッドを取得する
- [SPARK-43121] [SC-128455][SQL] 'HiveInspectors で手動コピーの代わりに
BytesWritable.copyBytes
を使用する - [SPARK-42916] [SC-128389][SQL] JDBCTableCatalog が Char/Varchar メタを読み取り側に保持する
- [SPARK-43050] [SC-128550][SQL] グループ化関数を置き換えて集計式を構築する
- [SPARK-43095] [SC-128549][SQL] バッチに対して戦略の冪等が壊れた場合に回避する:
Infer Filters
- [SPARK-43130] [SC-128597][SQL] InternalType を PhysicalDataType に移動する
- [SPARK-43105] [SC-128456][CONNECT] プロト メッセージのバイトと文字列の省略
- [SPARK-43099] [SC-128596][SQL] UDF を FunctionRegistry に登録するときに、
getCanonicalName
の代わりにgetName
を使用してビルダー クラス名を取得する - [SPARK-42994] [SC-128586][ML][CONNECT] PyTorch ディストリビューターがローカル モードをサポート
- [SPARK-42859] 元に戻す "[SC-127935][CONNECT][PS] Spark Connect での pandas API の基本的なサポート"
- [SPARK-43021] [SC-128472][SQL] AQE を使用すると
CoalesceBucketsInJoin
が機能しない - [SPARK-43125] [SC-128477][CONNECT] Connect サーバーが Null メッセージで例外を処理できない問題を修正する
- [SPARK-43147] [SC-128594] ローカル チェック用の flake8 リントを修正
- [SPARK-43031] [SC-128360] [SS] [接続] ストリーミングの単体テストと doctest を有効にする
- [SPARK-43039] [LC-67] ファイル source_metadata 列のユーザー設定フィールドをサポートします。
- [SPARK-43120] [SC-128407][SS] RocksDB 状態ストアのピン留めされたブロック メモリ使用量の追跡のサポートを追加
- [SPARK-43110] [SC-128381][SQL] asIntegral を PhysicalDataType に移動する
- [SPARK-43118] [SC-128398][SS] KafkaMicroBatchStream で UninterruptibleThread の不要なアサートを削除する
- [SPARK-43055] [SC-128331][CONNECT][PYTHON] 重複する入れ子になったフィールド名をサポート
- [SPARK-42437] [SC-128339][PYTHON][CONNECT] PySpark catalog.cacheTable ではストレージ レベルを指定できるようにする
- [SPARK-42985] [SC-128332][CONNECT][PYTHON] SQL 構成を尊重するように createDataFrame を修正
- [SPARK-39696] [SC-127830][CORE] TaskMetrics.externalAccums へのアクセスでのデータ競合を修正する
- [SPARK-43103] [SC-128335][SQL] 整数を PhysicalDataType に移動
- [SPARK-42741] [SC-125547][SQL] リテラルが null の場合、バイナリ比較でキャストのラップを解除しない
- [SPARK-43057] [SC-127948][CONNECT][PYTHON] Spark Connect 列エラーをエラー クラスに移行する
- [SPARK-42859] [SC-127935][CONNECT][PS] Spark Connect での pandas API の Basic サポート
- [SPARK-43013] [SC-127773][PYTHON]
ValueError
を DataFrame からPySparkValueError
に移行します。 - [SPARK-43089] [SC-128051][CONNECT] UI でデバッグ文字列を編集する
- [SPARK-43028] [SC-128070][SQL] エラー クラス SQL_CONF_NOT_FOUND を追加
- [SPARK-42999] [SC-127842][Connect] Dataset#foreach, foreachPartition
- [SPARK-43066] [SC-127937][SQL] JavaDatasetSuite で dropDuplicates のテストを追加する
- [SPARK-43075] [SC-127939][CONNECT] がインストールされていない場合は
gRPC
をgrpcio
に変更します。 - [SPARK-42953] [SC-127809][Connect] 型指定されたフィルター、マップ、flatMap、mapPartitions
- [SPARK-42597] [SC-125506][SQL] タイムスタンプ型への日付型のラップ解除をサポート
- [SPARK-42931] [SC-127933][SS] dropDuplicatesWithinWatermark を導入
- [SPARK-43073] [SC-127943][CONNECT] プロト データ型定数の追加
- [SPARK-43077] [SC-128050][SQL] UNRECOGNIZED_SQL_TYPE のエラー メッセージを改善する
- [SPARK-42951] [SC-128030][SS][Connect] DataStreamReader APIs
- [SPARK-43049] [SC-127846][SQL] Oracle JDBC の StringType に VARCHAR(255) の代わりに CLOB を使用する
- [SPARK-43018] [SC-127762][SQL] タイムスタンプ リテラルを含む INSERT コマンドのバグを修正する
- [SPARK-42855] [SC-127722][SQL] TableOutputResolver でランタイム null チェックを使用する
- [SPARK-43030] [SC-127847][SQL] メタデータ列とのリレーションシップを重複除去する
- [SPARK-42993] [SC-127829][ML][CONNECT] PyTorch ディストリビューターを Spark Connect と互換性のあるものにする
- [SPARK-43058] [SC-128072][SQL] 数値と小数部を PhysicalDataType に移動する
- [SPARK-43056] [SC-127946][SS] RocksDB 状態ストアのコミットは、一時停止されている場合にのみバックグラウンド処理を続行する必要がある
- [SPARK-43059] [SC-127947][CONNECT][PYTHON] DataFrame から TypeError を移行する(Reader|Writer) をエラー クラスに変換する
- [SPARK-43071] [SC-128018][SQL] INSERT ソース関係の ORDER BY、LIMIT、OFFSET で SELECT DEFAULT をサポート
- [SPARK-43061] [SC-127956][CORE][SQL] SQL 演算子の実行に PartitionEvaluator を導入する
- [SPARK-43067] [SC-127938][SS] Kafka コネクタのエラー クラス リソース ファイルの場所を修正する
- [SPARK-43019] [SC-127844][SQL] 順序を PhysicalDataType に移動する
- [SPARK-43010] [SC-127759][PYTHON] 列エラーをエラー クラスに移行する
- [SPARK-42840] [SC-127782][SQL]
_LEGACY_ERROR_TEMP_2004
エラーを内部エラーに変更する - [SPARK-43041] [SC-127765][SQL] コネクタ API の互換性のために例外のコンストラクターを復元する
- [SPARK-42939] [SC-127761][SS][CONNECT] Spark Connect 用コア ストリーミング Python API
- [SPARK-42844] [SC-127766][SQL] エラー クラス
_LEGACY_ERROR_TEMP_2008
をINVALID_URL
に更新する - [SPARK-42316] [SC-127720][SQL] _LEGACY_ERROR_TEMP_2044 に名前を割り当てる
- [SPARK-42995] [SC-127723][CONNECT][PYTHON] Spark Connect DataFrame エラーをエラー クラスに移行する
- [SPARK-42983] [SC-127717][CONNECT][PYTHON] createDataFrame を修正して 0-dim numpy 配列を適切に処理する
- [SPARK-42955] [SC-127476][SQL] SparkThrowable の classifyException と wrap AnalysisException をスキップする
- [SPARK-42949] [SC-127255][SQL] NAAJ のコードを簡略化する
- [SPARK-43011] [SC-127577][SQL]
array_insert
は 0 インデックスで失敗します。 - [SPARK-42974] [SC-127487][CORE]
Utils.createTempDir
を復元して、ShutdownHookManager
を使用してJavaUtils.createTempDir
メソッドをクリーン アップします。 - [SPARK-42964] [SC-127585][SQL] PosgresDialect '42P07' はテーブルが既に存在することも意味する
- [SPARK-42978] [SC-127351][SQL] Derby&PG: RENAME では schema-Name で new-table-Name を修飾できない
- [SPARK-37980] [SC-127668][SQL] テストで可能であれば、_metadata 経由で row_index にアクセスする
- [SPARK-42655] [SC-127591][SQL] あいまいな列参照エラーが正しくない
- [SPARK-43009] [SC-127596][SQL]
Any
定数でパラメーター化されたsql()
- [SPARK-43026] [SC-127590][SQL] 非交換テーブル キャッシュで AQE を適用する
- [SPARK-42963] [SC-127576][SQL] SparkSessionExtensions を拡張してルールを AQE クエリ ステージ オプティマイザーに注入する
- [SPARK-42918] [SC-127357] FileSourceStrategy でのメタデータ属性の処理を一般化する
- [SPARK-42806] [SC-127452][SPARK-42811][CONNECT]
Catalog
サポートの追加 - [SPARK-42997] [SC-127535][SQL] TableOutputResolver は、配列とマップのエラー メッセージで正しい列パスを使用する必要がある
- [SPARK-43006] [SC-127486][PYSPARK] StorageLevel eq() の入力ミスを修正
- [SPARK-43005] [SC-127485][PYSPARK] pyspark/pandas/config.py の入力ミスを修正
- [SPARK-43004] [SC-127457][CORE] ResourceRequest.equals() の入力ミスを修正
- [SPARK-42907] [SC-126984][CONNECT][PYTHON] Avro 関数の実装
- [SPARK-42979] [SC-127272][SQL] リテラル コンストラクターをキーワードとして定義する
- [SPARK-42946] [SC-127252][SQL] 変数置換によって入れ子になった機密データを編集する
- [SPARK-42952] [SC-127260][SQL] アナライザー ルール ProprocessTableCreation と DataSourceAnalysis のパラメーターを簡略化する
- [SPARK-42683] [LC-75] 競合するメタデータ列の名前を自動的に変更する
- [SPARK-42853] [SC-126101][FollowUp] 競合の修正
- [SPARK-42929] [SC-126748][CONNECT] mapInPandas/ mapInArrow で "is_barrier" をサポートする
- [SPARK-42968] [SC-127271][SS] DSv2 ソース/シンク用 StreamingWrite API の一部としてコミット コーディネーターをスキップするオプションを追加
- [SPARK-42954] [SC-127261][PYTHON][CONNECT] PySpark と Spark Connect Python クライアントに
YearMonthIntervalType
を追加 - [SPARK-41359] [SC-127256][SQL] UnsafeRow で DataType の代わりに を
PhysicalDataType
使用する - [SPARK-42873] [SC-127262][SQL] Spark SQL 型をキーワードとして定義する
- [SPARK-42808] [SC-126302][CORE] 毎回 availableProcessors を取得しないようにする
MapOutputTrackerMaster#getStatistics
- [SPARK-42937] [SC-126880][SQL]
PlanSubqueries
がInSubqueryExec#shouldBroadcast
を true に設定する必要がある - [SPARK-42896] [SC-126729][SQL][PYTHON]
mapInPandas
/mapInArrow
でバリア モード実行がサポートされるようにする - [SPARK-42874] [SC-126442][SQL] すべての入力ファイルの分析に新しいゴールデン ファイル テスト フレームワークを有効にする
- [SPARK-42922] [SC-126850][SQL] ランダムから SecureRandom への移行
- [SPARK-42753] [SC-126369] ReusedExchange は存在しないノードを参照します
- [SPARK-40822] [SC-126274][SQL] 安定した派生列の別名
- [SPARK-42908] [SC-126856][PYTHON] SparkContext が必要だが初期化されていないときに RuntimeError を発生させる
- [SPARK-42779] [SC-126042][SQL] アドバイザリ シャッフル パーティション サイズを示す V2 書き込みを許可する
- [SPARK-42914] [SC-126727][PYTHON] に対する
transformUnregisteredFunction
再利用DistributedSequenceID
。 - [SPARK-42878] [SC-126882][CONNECT] DataFrameReader のテーブル API でオプションを受け入れることもできます
- [SPARK-42927] [SC-126883][CORE]
o.a.spark.util.Iterators#size
のアクセス スコープをprivate[util]
に変更する - [SPARK-42943] [SC-126879][SQL] 有効な長さに StringType に TEXT の代わりに LONGTEXT を使用する
- [SPARK-37677] [SC-126855][CORE] 解凍でファイルのアクセス許可を保持できる
- [SPARK-42891] [13.x][SC-126458][CONNECT][PYTHON] CoGrouped Map API を実装する
- [SPARK-41876] [SC-126849][CONNECT][PYTHON] DataFrame.toLocalIterator を実装する
- [SPARK-42930] [SC-126761][CORE][SQL]
ProtobufSerDe
に関連する実装のアクセス スコープをprivate[protobuf]
に変更する - [SPARK-42819] [SC-125879][SS] ストリーミングで使用される RocksDB の max_write_buffer_number と write_buffer_size の設定のサポートを追加
- [SPARK-42924] [SC-126737][SQL][CONNECT][PYTHON] パラメーター化された SQL 引数のコメントを明確にする
- [SPARK-42748] [SC-126455][CONNECT] サーバー側アーティファクト管理
- [SPARK-42816] [SC-126365][CONNECT] 最大メッセージ サイズ 128 MB をサポート
- [SPARK-42850] [SC-126109][SQL] オプティマイザーで重複するルール CombineFilters を削除する
- [SPARK-42662] [SC-126355][CONNECT][PS] Spark の既定のインデックスに pandas API のプロト メッセージを追加する
- [SPARK-42720] [SC-126136][PS][SQL] プランの代わりに分散シーケンスの既定のインデックスに式を使用する
- [SPARK-42790] [SC-126174][SQL] 除外されたメソッドを抽象化して、JDBC Docker テストのテストを改善します。
- [SPARK-42900] [SC-126473][CONNECT][PYTHON] 推論と列名を考慮して createDataFrame を修正
- [SPARK-42917] [SC-126657][SQL] DerbyDialect 用 に getUpdateColumnNullabilityQuery を修正する
- [SPARK-42684] [SC-125157][SQL] v2 カタログで列の既定値を既定で許可しない
- [SPARK-42861] [SC-126635][SQL] API ドキュメントの生成を回避するには、protected[sql] の代わりに private[sql] を使用します
- [SPARK-42920] [SC-126728][CONNECT][PYTHON] UDT を使用して UDF のテストを有効にする
- [SPARK-42791] [SC-126617][SQL] 分析用の新しいゴールデン ファイル テスト フレームワークを作成する
- [SPARK-42911] [SC-126652][PYTHON] より基本的な例外を導入する
- [SPARK-42904] [SC-126634][SQL] Char/Varchar による JDBC カタログのサポート
- [SPARK-42901] [SC-126459][CONNECT][PYTHON]
file recursively imports
の可能性を回避するためにStorageLevel
を別のファイルに移動する - [SPARK-42894] [SC-126451][CONNECT] Spark connect jvm クライアント用に
cache
/persist
/unpersist
/storageLevel
をサポートする - [SPARK-42792] [SC-125852][SS] ストリーミング ステートフル演算子で使用される RocksDB の WRITE_FLUSH_BYTES のサポートを追加
- [SPARK-41233] [SC-126441][CONNECT][PYTHON] Spark Connect Python クライアントに array_prepend を追加する
- [SPARK-42681] [SC-125149][SQL] ALTER TABLE ADD の順序制約を緩和する|REPLACE 列記述子
- [SPARK-42889] [SC-126367][CONNECT][PYTHON] キャッシュ、永続化、非パーシスト、storageLevel を実装する
- [SPARK-42824] [SC-125985][CONNECT][PYTHON] サポートされていない JVM 属性に明確なエラー メッセージを表示する
- [SPARK-42340] [SC-126131][CONNECT][PYTHON] Grouped Map API を実装する
- [SPARK-42892] [SC-126454][SQL] 同じ種類と関連するメソッドを DataType から移動する
- [SPARK-42827] [SC-126126][CONNECT] Scala Connect クライアント用に
functions#array_prepend
をサポート - [SPARK-42823] [SC-125987][SQL]
spark-sql
シェルでは、初期化用のマルチパート名前空間がサポートをサポート - [SPARK-42817] [SC-125960][CORE] ApplicationMaster でシャッフル サービス名を 1 回ログに記録する
- [SPARK-42786] [SC-126438][Connect] Typed Select
- [SPARK-42800] [SC-125868][CONNECT][PYTHON][ML] ml 関数
{array_to_vector, vector_to_array}
を実装 - [SPARK-42052] [SC-126439][SQL] HiveSimpleUDF 用の Codegen サポート
- [SPARK-41233] [SC-126110][SQL][PYTHON]
array_prepend
関数の追加 - [SPARK-42864] [SC-126268][ML][3.4]
IsotonicRegression.PointsAccumulator
をプライベートにする - [SPARK-42876] [SC-126281][SQL] DataType の physicalDataType を private にする必要がある [sql]
- [SPARK-42101] [SC-125437][SQL] AQE で InMemoryTableScanExec をサポートする
- [SPARK-41290] [SC-124030][SQL] create/replace table ステートメントの列に対して GENERATED ALWAYS AS 式をサポート
- [SPARK-42870] [SC-126220][CONNECT]
toCatalystValue
をconnect-common
に移動 - [SPARK-42247] [SC-126107][CONNECT][PYTHON] UserDefinedFunction を returnType に修正
- [SPARK-42875] [SC-126258][CONNECT][PYTHON] タイムゾーンとマップ型を適切に処理するように toPandas を修正
- [SPARK-42757] [SC-125626][CONNECT] DataFrameReader の textFile を実装する
- [SPARK-42803] [SC-126081][CORE][SQL][ML] getParameterTypes.length の代わりに getParameterCount 関数を使用する
- [SPARK-42833] [SC-126043][SQL]
SparkSession
でapplyExtensions
をリファクター - [SPARK-41765] "[SC-123550][SQL] v1 書き込みメトリックを取り出す...
- [SPARK-42848] [SC-126105][CONNECT][PYTHON] DataFrame.registerTempTable を実装
- [SPARK-42020] [SC-126103][CONNECT][PYTHON] Spark Connect での UserDefinedType のサポート
- [SPARK-42818] [SC-125861][CONNECT][PYTHON] DataFrameReader/Writer.jdbc を実装
- [SPARK-42812] [SC-125867][CONNECT] AddArtifactsRequest protobuf メッセージに client_type を追加する
- [SPARK-42772] [SC-125860][SQL] プッシュダウンに関する JDBC オプションの既定値を true に変更する
- [SPARK-42771] [SC-125855][SQL] HiveGenericUDF をリファクター
- [SPARK-25050] [SC-123839][SQL] Avro: 複雑な共用体の作成
- [SPARK-42765] [SC-125850][CONNECT][PYTHON]
pyspark.sql.connect.functions
からpandas_udf
インポートを有効にする - [SPARK-42719] [SC-125225][CORE]
MapOutputTracker#getMapLocation
がspark.shuffle.reduceLocality.enabled
を尊重する必要がある - [SPARK-42480] [SC-125173][SQL] ドロップ パーティションのパフォーマンスを完全する
- [SPARK-42689] [SC-125195][CORE][SHUFFLE] シャッフル データが確実に格納されている場合に ShuffleDriverComponent に宣言を許可する
- [SPARK-42726] [SC-125279][CONNECT][PYTHON]
DataFrame.mapInArrow
を実装する - [SPARK-41765] [SC-123550][SQL] v1 書き込みメトリックを WriteFiles にプルする
- [SPARK-41171] [SC-124191][SQL] partitionSpec が空の場合にウィンドウの制限を推論してプッシュダウンする
- [SPARK-42686] [SC-125292][CORE] TaskMemoryManager でデバッグ メッセージの書式設定を延期する
- [SPARK-42756] [SC-125443][CONNECT][PYTHON] Python クライアントでプロト リテラルを値に変換するヘルパー関数
- [SPARK-42793] [SC-125627][CONNECT]
connect
モジュールでbuild_profile_flags
が必要 - [SPARK-42701] [SC-125192][SQL]
try_aes_decrypt()
関数を追加 - [SPARK-42679] [SC-125438][CONNECT][PYTHON] createDataFrame が null 非許容スキーマで動作しない
- [SPARK-42733] [SC-125542][CONNECT][フォローアップ] パスまたはテーブルなしで書き込む
- [SPARK-42777] [SC-125525][SQL] TimestampNTZ カタログ統計を計画統計に変換するサポート
- [SPARK-42770] [SC-125558][CONNECT] Java 17 日次テスト GA タスク パスで作成
truncatedTo(ChronoUnit.MICROS)
する追加SQLImplicitsTestSuite
- [SPARK-42752] [SC-125550][PYSPARK][SQL] 初期化中に PySpark 例外を印刷可能にする
- [SPARK-42732] [SC-125544][PYSPARK][CONNECT] Spark Connect セッション getActiveSession メソッドをサポート
- [SPARK-42755] [SC-125442][CONNECT] 係数リテラル値を
connect-common
に変換する - [SPARK-42747] [SC-125399][ML] LoR と AFT の内部状態が正しくない問題を修正
- [SPARK-42740] [SC-125439][SQL] 一部の組み込み言語でプッシュダウン オフセットまたはページングが無効であるというバグを修正
- [SPARK-42745] [SC-125332][SQL] 改善された AliasAwareOutputExpression は DSv2 で動作する
- [SPARK-42743] [SC-125330][SQL] TimestampNTZ 列の分析のサポート
- [SPARK-42721] [SC-125371][CONNECT] RPC ログ インターセプター
- [SPARK-42691] [SC-125397][CONNECT][PYTHON] Dataset.semanticHash を実装
- [SPARK-42688] [SC-124922][CONNECT] Connect proto Request client_id の名前を session_id に変更する
- [SPARK-42310] [SC-122792][SQL] 名前を _LEGACY_ERROR_TEMP_1289 に割り当てる
- [SPARK-42685] [SC-125339][CORE] Utils.bytesToString ルーチンを最適化する
- [SPARK-42725] [SC-125296][CONNECT][PYTHON] LiteralExpression で配列パラメーターをサポートする
- [SPARK-42702] [SC-125293][SPARK-42623][SQL] サブクエリと CTE でパラメーター化されたクエリをサポート
- [SPARK-42697] [SC-125189][WEBUI] /api/v1/applications を修正して、期間フィールドに対して 0 ではなく合計アップタイムを返す
- [SPARK-42733] [SC-125278][CONNECT][PYTHON] パス パラメーターなしで動作するように DataFrameWriter.save を修正
- [SPARK-42376] [SC-124928][SS] 演算子間で透かしの伝達を導入する
- [SPARK-42710] [SC-125205][CONNECT][PYTHON] FrameMap proto の名前を MapPartitions に変更する
- [SPARK-37099] [SC-123542][SQL] ランクベース フィルターの Window のグループ制限を導入して top-k 計算を最適化する
- [SPARK-42630] [SC-125207][CONNECT][PYTHON] UnparsedDataType を導入し、SparkConnectClient が使用可能になるまで DDL 文字列の解析を遅らせる
- [SPARK-42690] [SC-125193][CONNECT] Scala クライアント用の CSV/JSON 解析関数を実装する
- [SPARK-42709] [SC-125172][PYTHON] 使用可能であるという
__file__
の前提を削除する - [SPARK-42318] [SC-122648][SPARK-42319][SQL] LEGACY_ERROR_TEMP(2123|2125) に名前を割り当てる
- [SPARK-42723] [SC-125183][SQL] TimestampType としてパーサー データ型 json "timestamp_ltz" をサポート
- [SPARK-42722] [SC-125175][CONNECT][PYTHON] Python Connect def schema() はスキーマをキャッシュしない
- [SPARK-42643] [SC-125152][CONNECT][PYTHON] Java (集計) ユーザー定義関数を登録する
- [SPARK-42656] [SC-125177][CONNECT][フォローアップ] spark-connect スクリプトを修正する
- [SPARK-41516] [SC-123899] [SQL] jdbc 言語でテーブルの作成に使用されるクエリをオーバーライドできるようにする
- [SPARK-41725] [SC-124396][CONNECT] DF.sql() の緊急実行
- [SPARK-42687] [SC-124896][SS] ストリーミングでサポートされていない
pivot
操作のエラー メッセージを改善 - [SPARK-42676] [SC-124809][SS] 既定の FS が異なる方法で設定されている場合でも、ストリーミング クエリの一時チェックポイントをローカル ファイルシステムに書き込む
- [SPARK-42303] [SC-122644][SQL] _LEGACY_ERROR_TEMP_1326 に名前を割り当てる
- [SPARK-42553] [SC-124560][SQL] "interval" の後に少なくとも 1 つの時間単位を確保する
- [SPARK-42649] [SC-124576][CORE] サードパーティのソース ファイルの先頭から標準の Apache License ヘッダーを削除する
- [SPARK-42611] [SC-124395][SQL] 解決中に内部フィールドの char/varchar 長さチェックを挿入する
- [SPARK-42419] [SC-124019][CONNECT][PYTHON] Spark Connect Column API のエラー フレームワークに移行します。
- [SPARK-42637] [SC-124522][CONNECT] SparkSession.stop() を追加する
- [SPARK-42647] [SC-124647][PYTHON] numpy の非推奨および削除された型のエイリアスを変更する
- [SPARK-42616] [SC-124389][SQL] SparkSQLCLIDriver は開始された hive sessionState のみを閉じる必要がある
- [SPARK-42593] [SC-124405][PS] pandas 2.0 で削除される API を非推奨にし、削除する。
- [SPARK-41870] [SC-124402][CONNECT][PYTHON] 重複する列名を処理するように createDataFrame を修正
- [SPARK-42569] [SC-124379][CONNECT] サポートされていないセッション API の例外をスローする
- [SPARK-42631] [SC-124526][CONNECT] Scala クライアントでのカスタム拡張機能のサポート
- [SPARK-41868] [SC-124387][CONNECT][PYTHON] 継続時間をサポートするように createDataFrame を修正
- [SPARK-42572] [SC-124171][SQL][SS] StateStoreProvider.validateStateRowFormat の動作を修正
メンテナンスの更新
「Databricks Runtime 13.1 のメンテナンス更新プログラム」を参照してください。
システム環境
- オペレーティング システム: Ubuntu 22.04.2 LTS
- Java: Zulu 8.70.0.23-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.2.2
- Delta Lake: 2.4.0
インストールされている Python ライブラリ
ライブラリ | Version | ライブラリ | Version | ライブラリ | Version |
---|---|---|---|---|---|
appdirs | 1.4.4 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
asttokens | 2.2.1 | attrs | 21.4.0 | backcall | 0.2.0 |
beautifulsoup4 | 4.11.1 | black | 22.6.0 | bleach | 4.1.0 |
blinker | 1.4 | boto3 | 1.24.28 | botocore | 1.27.28 |
certifi | 2022.9.14 | cffi | 1.15.1 | chardet | 4.0.0 |
charset-normalizer | 2.0.4 | クリックし | 8.0.4 | cryptography | 37.0.1 |
cycler | 0.11.0 | Cython | 0.29.32 | dbus-python | 1.2.18 |
debugpy | 1.5.1 | decorator | 5.1.1 | defusedxml | 0.7.1 |
distlib | 0.3.6 | docstring-to-markdown | 0.12 | entrypoints | 0.4 |
実行 | 1.2.0 | facets-overview | 1.0.3 | fastjsonschema | 2.16.3 |
filelock | 3.12.0 | fonttools | 4.25.0 | googleapis-common-protos | 1.56.4 |
grpcio | 1.48.1 | grpcio-status | 1.48.1 | httplib2 | 0.20.2 |
idna | 3.3 | importlib-metadata | 4.6.4 | ipykernel | 6.17.1 |
ipython | 8.10.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
jedi | 0.18.1 | jeepney | 0.7.1 | Jinja2 | 2.11.3 |
jmespath | 0.10.0 | joblib | 1.2.0 | jsonschema | 4.16.0 |
jupyter-client | 7.3.4 | jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 |
jupyterlab-widgets | 1.0.0 | keyring | 23.5.0 | kiwisolver | 1.4.2 |
launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
MarkupSafe | 2.0.1 | matplotlib | 3.5.2 | matplotlib-inline | 0.1.6 |
mccabe | 0.7.0 | mistune | 0.8.4 | more-itertools | 8.10.0 |
mypy-extensions | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
nbformat | 5.5.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
ノートブック | 6.4.12 | numpy | 1.21.5 | oauthlib | 3.2.0 |
パッケージング | 21.3 | pandas | 1.4.4 | pandocfilters | 1.5.0 |
parso | 0.8.3 | pathspec | 0.9.0 | patsy | 0.5.2 |
pexpect | 4.8.0 | pickleshare | 0.7.5 | Pillow | 9.2.0 |
pip | 22.2.2 | platformdirs | 2.5.2 | plotly | 5.9.0 |
pluggy | 1.0.0 | prometheus-client | 0.14.1 | prompt-toolkit | 3.0.36 |
protobuf | 3.19.4 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 8.0.0 |
pycparser | 2.21 | pydantic | 1.10.6 | pyflakes | 3.0.1 |
Pygments | 2.11.2 | PyGObject | 3.42.1 | PyJWT | 2.3.0 |
pyodbc | 4.0.32 | pyparsing | 3.0.9 | pyright | 1.1.294 |
pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
python-lsp-server | 1.7.1 | pytoolconfig | 1.2.2 | pytz | 2022.1 |
pyzmq | 23.2.0 | requests | 2.28.1 | rope | 1.7.0 |
s3transfer | 0.6.0 | scikit-learn | 1.1.1 | scipy | 1.9.1 |
seaborn | 0.11.2 | SecretStorage | 3.3.1 | Send2Trash | 1.8.0 |
setuptools | 63.4.1 | 6 | 1.16.0 | soupsieve | 2.3.1 |
ssh-import-id | 5.11 | stack-data | 0.6.2 | statsmodels | 0.13.2 |
tenacity | 8.1.0 | terminado | 0.13.1 | testpath | 0.6.0 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
tornado | 6.1 | traitlets | 5.1.1 | typing_extensions | 4.3.0 |
ujson | 5.4.0 | unattended-upgrades | 0.1 | urllib3 | 1.26.11 |
virtualenv | 20.16.3 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
webencodings | 0.5.1 | whatthepatch | 1.0.2 | wheel | 0.37.1 |
widgetsnbextension | 3.6.1 | yapf | 0.31.0 | zipp | 1.0.0 |
インストールされている R ライブラリ
R ライブラリは、2023-02-10 の Microsoft CRAN スナップショットからインストールされています。
ライブラリ | Version | ライブラリ | Version | ライブラリ | Version |
---|---|---|---|---|---|
矢印 | 10.0.1 | askpass | 1.1 | assertthat | 0.2.1 |
backports | 1.4.1 | base | 4.2.2 | base64enc | 0.1-3 |
bit | 4.0.5 | bit64 | 4.0.5 | blob (blob) | 1.2.3 |
boot | 1.3-28 | brew | 1.0 から 8 | brio | 1.1.3 |
broom | 1.0.3 | bslib | 0.4.2 | cachem | 1.0.6 |
callr | 3.7.3 | キャレット | 6.0-93 | cellranger | 1.1.0 |
chron | 2.3-59 | クラス | 7.3-21 | cli | 3.6.0 |
clipr | 0.8.0 | clock | 0.6.1 | cluster | 2.1.4 |
codetools | 0.2-19 | colorspace | 2.1-0 | commonmark | 1.8.1 |
compiler | 4.2.2 | config | 0.3.1 | cpp11 | 0.4.3 |
crayon | 1.5.2 | 資格情報 | 1.3.2 | curl | 5.0.0 |
data.table | 1.14.6 | datasets | 4.2.2 | DBI | 1.1.3 |
dbplyr | 2.3.0 | desc | 1.4.2 | devtools | 2.4.5 |
diffobj | 0.3.5 | digest | 0.6.31 | downlit | 0.4.2 |
dplyr | 1.1.0 | dtplyr | 1.2.2 | e1071 | 1.7-13 |
ellipsis | 0.3.2 | evaluate | 0.20 | fansi | 1.0.4 |
farver | 2.1.1 | fastmap | 1.1.0 | fontawesome | 0.5.0 |
forcats | 1.0.0 | foreach | 1.5.2 | foreign | 0.8-82 |
forge | 0.2.0 | fs | 1.6.1 | future | 1.31.0 |
future.apply | 1.10.0 | gargle | 1.3.0 | generics | 0.1.3 |
gert | 1.9.2 | ggplot2 | 3.4.0 | gh | 1.3.1 |
gitcreds | 0.1.2 | glmnet | 4.1-6 | globals | 0.16.2 |
glue | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
gower | 1.0.1 | graphics | 4.2.2 | grDevices | 4.2.2 |
grid | 4.2.2 | gridExtra | 2.3 | gsubfn | 0.7 |
gtable | 0.3.1 | hardhat | 1.2.0 | haven | 2.5.1 |
highr | 0.10 | hms | 1.1.2 | htmltools | 0.5.4 |
htmlwidgets | 1.6.1 | httpuv | 1.6.8 | httr | 1.4.4 |
ids | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
isoband | 0.2.7 | iterators | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.4 | KernSmooth | 2.23-20 | knitr | 1.42 |
labeling | 0.4.2 | later | 1.3.0 | lattice | 0.20-45 |
lava | 1.7.1 | ライフサイクル | 1.0.3 | listenv | 0.9.0 |
lubridate | 1.9.1 | magrittr | 2.0.3 | markdown | 1.5 |
MASS | 7.3-58.2 | Matrix | 1.5-1 | memoise | 2.0.1 |
methods | 4.2.2 | mgcv | 1.8-41 | mime | 0.12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.10 |
munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-18 |
numDeriv | 2016.8-1.1 | openssl | 2.0.5 | parallel | 4.2.2 |
parallelly | 1.34.0 | pillar | 1.8.1 | pkgbuild | 1.4.0 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2 |
plogr | 0.2.0 | plyr | 1.8.8 | praise | 1.0.0 |
prettyunits | 1.1.1 | pROC | 1.18.0 | processx | 3.8.0 |
prodlim | 2019.11.13 | profvis | 0.3.7 | progress | 1.2.2 |
progressr | 0.13.0 | promises | 1.2.0.1 | proto | 1.0.0 |
proxy | 0.4-27 | ps | 1.7.2 | purrr | 1.0.1 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.10 | RcppEigen | 0.3.3.9.3 |
readr | 2.1.3 | readxl | 1.4.2 | recipes | 1.0.4 |
rematch | 1.0.1 | rematch2 | 2.1.2 | remotes | 2.4.2 |
reprex | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.0.6 |
rmarkdown | 2.20 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
RSQLite | 2.2.20 | rstudioapi | 0.14 | rversions | 2.1.2 |
rvest | 1.0.3 | sass | 0.4.5 | scales | 1.2.1 |
selectr | 0.4-2 | sessioninfo | 1.2.2 | shape | 1.4.6 |
shiny | 1.7.4 | sourcetools | 0.1.7-1 | sparklyr | 1.7.9 |
SparkR | 3.4.0 | spatial | 7.3-15 | splines | 4.2.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | stats | 4.2.2 |
stats4 | 4.2.2 | stringi | 1.7.12 | stringr | 1.5.0 |
survival | 3.5-3 | sys | 3.4.1 | systemfonts | 1.0.4 |
tcltk | 4.2.2 | testthat | 3.1.6 | textshaping | 0.3.6 |
tibble | 3.1.8 | tidyr | 1.3.0 | tidyselect | 1.2.0 |
tidyverse | 1.3.2 | timechange | 0.2.0 | timeDate | 4022.108 |
tinytex | 0.44 | ツール | 4.2.2 | tzdb | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.3 |
utils | 4.2.2 | uuid | 1.1-0 | vctrs | 0.5.2 |
viridisLite | 0.4.1 | vroom | 1.6.1 | waldo | 0.4.0 |
whisker | 0.4.1 | withr | 2.5.0 | xfun | 0.37 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.7 | zip | 2.2.2 |
インストールされている Java ライブラリと Scala ライブラリ (Scala 2.12 クラスター バージョン)
グループ ID | 成果物 ID | Version |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
com.amazonaws | aws-java-sdk-config | 1.12.390 |
com.amazonaws | aws-java-sdk-core | 1.12.390 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
com.amazonaws | aws-java-sdk-directory | 1.12.390 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
com.amazonaws | aws-java-sdk-efs | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
com.amazonaws | aws-java-sdk-emr | 1.12.390 |
com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
com.amazonaws | aws-java-sdk-glue | 1.12.390 |
com.amazonaws | aws-java-sdk-iam | 1.12.390 |
com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
com.amazonaws | aws-java-sdk-kms | 1.12.390 |
com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
com.amazonaws | aws-java-sdk-logs | 1.12.390 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.390 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
com.amazonaws | aws-java-sdk-rds | 1.12.390 |
com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
com.amazonaws | aws-java-sdk-ses | 1.12.390 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
com.amazonaws | aws-java-sdk-sns | 1.12.390 |
com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
com.amazonaws | aws-java-sdk-sts | 1.12.390 |
com.amazonaws | aws-java-sdk-support | 1.12.390 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
com.amazonaws | jmespath-java | 1.12.390 |
com.clearspring.analytics | ストリーム (stream) | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.14.2 |
com.fasterxml.jackson.core | jackson-core | 2.14.2 |
com.fasterxml.jackson.core | jackson-databind | 2.14.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.14.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.14.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.14.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.14.2 |
com.github.ben-manes.caffeine | caffeine | 2.9.3 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1-natives |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1-natives |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natives |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natives |
com.github.luben | zstd-jni | 1.5.2-5 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.9 |
com.google.crypto.tink | tink | 1.7.0 |
com.google.errorprone | error_prone_annotations | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.1.214 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.6.4 |
io.dropwizard.metrics | metrics-core | 4.2.10 |
io.dropwizard.metrics | metrics-graphite | 4.2.10 |
io.dropwizard.metrics | metrics-healthchecks | 4.2.10 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.10 |
io.dropwizard.metrics | metrics-jmx | 4.2.10 |
io.dropwizard.metrics | metrics-json | 4.2.10 |
io.dropwizard.metrics | metrics-jvm | 4.2.10 |
io.dropwizard.metrics | metrics-servlets | 4.2.10 |
io.netty | netty-all | 4.1.87.Final |
io.netty | netty-buffer | 4.1.87.Final |
io.netty | netty-codec | 4.1.87.Final |
io.netty | netty-codec-http | 4.1.87.Final |
io.netty | netty-codec-http2 | 4.1.87.Final |
io.netty | netty-codec-socks | 4.1.87.Final |
io.netty | netty-common | 4.1.87.Final |
io.netty | netty-handler | 4.1.87.Final |
io.netty | netty-handler-proxy | 4.1.87.Final |
io.netty | netty-resolver | 4.1.87.Final |
io.netty | netty-transport | 4.1.87.Final |
io.netty | netty-transport-classes-epoll | 4.1.87.Final |
io.netty | netty-transport-classes-kqueue | 4.1.87.Final |
io.netty | netty-transport-native-epoll | 4.1.87.Final |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.87.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | コレクタ | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
ml.combust.mleap | mleap-databricks-runtime_2.12 | v0.20.0-db2 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pickle | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.22 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.16 |
org.apache.ant | ant-jsch | 1.9.16 |
org.apache.ant | ant-launcher | 1.9.16 |
org.apache.arrow | arrow-format | 11.0.0 |
org.apache.arrow | arrow-memory-core | 11.0.0 |
org.apache.arrow | arrow-memory-netty | 11.0.0 |
org.apache.arrow | arrow-vector | 11.0.0 |
org.apache.avro | avro | 1.11.1 |
org.apache.avro | avro-ipc | 1.11.1 |
org.apache.avro | avro-mapred | 1.11.1 |
org.apache.commons | commons-collections4 | 4.4. |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recipes | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | ivy | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.19.0 |
org.apache.logging.log4j | log4j-api | 2.19.0 |
org.apache.logging.log4j | log4j-core | 2.19.0 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.19.0 |
org.apache.mesos | mesos | 1.11.0-shaded-protobuf |
org.apache.orc | orc-core | 1.8.3-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.8.3-shaded-protobuf |
org.apache.orc | orc-shims | 1.8.3 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.22 |
org.apache.yetus | audience-annotations | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.3 |
org.apache.zookeeper | zookeeper-jute | 3.6.3 |
org.checkerframework | checker-qual | 3.19.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-continuation | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-http | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-io | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-jndi | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-plus | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-proxy | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-security | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-server | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-servlet | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-servlets | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-util | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-util-ajax | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-webapp | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-xml | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-api | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-client | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-common | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-server | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.50.v20221201 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | jersey-common | 2.36 |
org.glassfish.jersey.core | jersey-server | 2.36 |
org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
org.hibernate.validator | hibernate-validator | 6.1.7.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | annotations | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 2.2.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.8 |
org.roaringbitmap | RoaringBitmap | 0.9.39 |
org.roaringbitmap | shims | 0.9.39 |
org.rocksdb | rocksdbjni | 7.8.3 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | scalatest-compatible | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.6 |
org.slf4j | jul-to-slf4j | 2.0.6 |
org.slf4j | slf4j-api | 2.0.6 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1.33 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |