diff --git a/docs/helm-charts/configure-custom-values-envoy.mdx b/docs/helm-charts/configure-custom-values-envoy.mdx index bfa40a0c..57f7b0cd 100644 --- a/docs/helm-charts/configure-custom-values-envoy.mdx +++ b/docs/helm-charts/configure-custom-values-envoy.mdx @@ -2,13 +2,14 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- +# Configure a custom values file for Scalar Envoy + import Tabs from '@theme/Tabs'; import TabItem from '@theme/TabItem'; -# Configure a custom values file for Scalar Envoy - This document explains how to create your custom values file for the Scalar Envoy chart. If you want to know the details of the parameters, please refer to the [README](https://github.com/scalar-labs/helm-charts/blob/main/charts/envoy/README.md) of the Scalar Envoy chart. ## Configure custom values for Scalar Envoy chart diff --git a/docs/helm-charts/configure-custom-values-file.mdx b/docs/helm-charts/configure-custom-values-file.mdx index 7d1593ca..9e59653a 100644 --- a/docs/helm-charts/configure-custom-values-file.mdx +++ b/docs/helm-charts/configure-custom-values-file.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Configure a custom values file for Scalar Helm Charts diff --git a/docs/helm-charts/configure-custom-values-scalar-admin-for-kubernetes.mdx b/docs/helm-charts/configure-custom-values-scalar-admin-for-kubernetes.mdx index 9bf07b18..43b8f5e3 100644 --- a/docs/helm-charts/configure-custom-values-scalar-admin-for-kubernetes.mdx +++ b/docs/helm-charts/configure-custom-values-scalar-admin-for-kubernetes.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Configure a custom values file for Scalar Admin for Kubernetes diff --git a/docs/helm-charts/configure-custom-values-scalar-manager.mdx b/docs/helm-charts/configure-custom-values-scalar-manager.mdx index 06ea0970..d25f8b9f 100644 --- a/docs/helm-charts/configure-custom-values-scalar-manager.mdx +++ b/docs/helm-charts/configure-custom-values-scalar-manager.mdx @@ -1,6 +1,7 @@ --- tags: - Enterprise Option +displayed_sidebar: docsEnglish --- # Configure a custom values file for Scalar Manager diff --git a/docs/helm-charts/configure-custom-values-scalardb-analytics-postgresql.mdx b/docs/helm-charts/configure-custom-values-scalardb-analytics-postgresql.mdx index 6d71b780..5d1eb638 100644 --- a/docs/helm-charts/configure-custom-values-scalardb-analytics-postgresql.mdx +++ b/docs/helm-charts/configure-custom-values-scalardb-analytics-postgresql.mdx @@ -1,6 +1,7 @@ --- tags: - Community +displayed_sidebar: docsEnglish --- # Configure a custom values file for ScalarDB Analytics with PostgreSQL diff --git a/docs/helm-charts/configure-custom-values-scalardb-cluster.mdx b/docs/helm-charts/configure-custom-values-scalardb-cluster.mdx index c431aae1..f4d29e79 100644 --- a/docs/helm-charts/configure-custom-values-scalardb-cluster.mdx +++ b/docs/helm-charts/configure-custom-values-scalardb-cluster.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Configure a custom values file for ScalarDB Cluster diff --git a/docs/helm-charts/configure-custom-values-scalardb-graphql.mdx b/docs/helm-charts/configure-custom-values-scalardb-graphql.mdx index 34b4f26a..9bab7a7f 100644 --- a/docs/helm-charts/configure-custom-values-scalardb-graphql.mdx +++ b/docs/helm-charts/configure-custom-values-scalardb-graphql.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # [Deprecated] Configure a custom values file for ScalarDB GraphQL diff --git a/docs/helm-charts/configure-custom-values-scalardb.mdx b/docs/helm-charts/configure-custom-values-scalardb.mdx index 36ab527a..86346ba7 100644 --- a/docs/helm-charts/configure-custom-values-scalardb.mdx +++ b/docs/helm-charts/configure-custom-values-scalardb.mdx @@ -3,6 +3,7 @@ tags: - Enterprise Standard - Enterprise Premium - Deprecated +displayed_sidebar: docsEnglish --- # [Deprecated] Configure a custom values file for ScalarDB Server diff --git a/docs/helm-charts/configure-custom-values-scalardl-auditor.mdx b/docs/helm-charts/configure-custom-values-scalardl-auditor.mdx index 86b77c2c..33aadc24 100644 --- a/docs/helm-charts/configure-custom-values-scalardl-auditor.mdx +++ b/docs/helm-charts/configure-custom-values-scalardl-auditor.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # Configure a custom values file for ScalarDL Auditor diff --git a/docs/helm-charts/configure-custom-values-scalardl-ledger.mdx b/docs/helm-charts/configure-custom-values-scalardl-ledger.mdx index bf328028..9a44d6a9 100644 --- a/docs/helm-charts/configure-custom-values-scalardl-ledger.mdx +++ b/docs/helm-charts/configure-custom-values-scalardl-ledger.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # Configure a custom values file for ScalarDL Ledger diff --git a/docs/helm-charts/configure-custom-values-scalardl-schema-loader.mdx b/docs/helm-charts/configure-custom-values-scalardl-schema-loader.mdx index f3b6d5dd..6340097a 100644 --- a/docs/helm-charts/configure-custom-values-scalardl-schema-loader.mdx +++ b/docs/helm-charts/configure-custom-values-scalardl-schema-loader.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # Configure a custom values file for ScalarDL Schema Loader diff --git a/docs/helm-charts/getting-started-logging.mdx b/docs/helm-charts/getting-started-logging.mdx index ab82c393..a2bb1b00 100644 --- a/docs/helm-charts/getting-started-logging.mdx +++ b/docs/helm-charts/getting-started-logging.mdx @@ -1,6 +1,7 @@ --- tags: - Community +displayed_sidebar: docsEnglish --- # Getting Started with Helm Charts (Logging using Loki Stack) diff --git a/docs/helm-charts/getting-started-monitoring.mdx b/docs/helm-charts/getting-started-monitoring.mdx index c28a9a40..d42f8ed0 100644 --- a/docs/helm-charts/getting-started-monitoring.mdx +++ b/docs/helm-charts/getting-started-monitoring.mdx @@ -1,6 +1,7 @@ --- tags: - Community +displayed_sidebar: docsEnglish --- # Getting Started with Helm Charts (Monitoring using Prometheus Operator) diff --git a/docs/helm-charts/getting-started-scalar-helm-charts.mdx b/docs/helm-charts/getting-started-scalar-helm-charts.mdx index dcc94494..d51d95db 100644 --- a/docs/helm-charts/getting-started-scalar-helm-charts.mdx +++ b/docs/helm-charts/getting-started-scalar-helm-charts.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Getting Started with Scalar Helm Charts diff --git a/docs/helm-charts/getting-started-scalar-manager.mdx b/docs/helm-charts/getting-started-scalar-manager.mdx index 9ee9f941..8344dec3 100644 --- a/docs/helm-charts/getting-started-scalar-manager.mdx +++ b/docs/helm-charts/getting-started-scalar-manager.mdx @@ -1,6 +1,7 @@ --- tags: - Enterprise Option +displayed_sidebar: docsEnglish --- # Deploy Scalar Manager diff --git a/docs/helm-charts/getting-started-scalardb-analytics-postgresql.mdx b/docs/helm-charts/getting-started-scalardb-analytics-postgresql.mdx index 36fa1a0a..1807de98 100644 --- a/docs/helm-charts/getting-started-scalardb-analytics-postgresql.mdx +++ b/docs/helm-charts/getting-started-scalardb-analytics-postgresql.mdx @@ -1,6 +1,7 @@ --- tags: - Community +displayed_sidebar: docsEnglish --- # Getting Started with Helm Charts (ScalarDB Analytics with PostgreSQL) diff --git a/docs/helm-charts/getting-started-scalardb-cluster-tls-cert-manager.mdx b/docs/helm-charts/getting-started-scalardb-cluster-tls-cert-manager.mdx index cf92badb..508bed4a 100644 --- a/docs/helm-charts/getting-started-scalardb-cluster-tls-cert-manager.mdx +++ b/docs/helm-charts/getting-started-scalardb-cluster-tls-cert-manager.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Getting Started with Helm Charts (ScalarDB Cluster with TLS by Using cert-manager) diff --git a/docs/helm-charts/getting-started-scalardb-cluster-tls.mdx b/docs/helm-charts/getting-started-scalardb-cluster-tls.mdx index 0462ab9e..0383321c 100644 --- a/docs/helm-charts/getting-started-scalardb-cluster-tls.mdx +++ b/docs/helm-charts/getting-started-scalardb-cluster-tls.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Getting Started with Helm Charts (ScalarDB Cluster with TLS) diff --git a/docs/helm-charts/getting-started-scalardb.mdx b/docs/helm-charts/getting-started-scalardb.mdx index d1a92c58..858c9f41 100644 --- a/docs/helm-charts/getting-started-scalardb.mdx +++ b/docs/helm-charts/getting-started-scalardb.mdx @@ -3,6 +3,7 @@ tags: - Enterprise Standard - Enterprise Premium - Deprecated +displayed_sidebar: docsEnglish --- # [Deprecated] Getting Started with Helm Charts (ScalarDB Server) diff --git a/docs/helm-charts/getting-started-scalardl-auditor-tls-cert-manager.mdx b/docs/helm-charts/getting-started-scalardl-auditor-tls-cert-manager.mdx index f2718d5d..75e411bf 100644 --- a/docs/helm-charts/getting-started-scalardl-auditor-tls-cert-manager.mdx +++ b/docs/helm-charts/getting-started-scalardl-auditor-tls-cert-manager.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # Getting Started with Helm Charts (ScalarDL Ledger and Auditor with TLS by Using cert-manager / Auditor Mode) diff --git a/docs/helm-charts/getting-started-scalardl-auditor-tls.mdx b/docs/helm-charts/getting-started-scalardl-auditor-tls.mdx index 8abaa2d9..776dca75 100644 --- a/docs/helm-charts/getting-started-scalardl-auditor-tls.mdx +++ b/docs/helm-charts/getting-started-scalardl-auditor-tls.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # Getting Started with Helm Charts (ScalarDL Ledger and Auditor with TLS / Auditor Mode) diff --git a/docs/helm-charts/getting-started-scalardl-auditor.mdx b/docs/helm-charts/getting-started-scalardl-auditor.mdx index f11f0b23..94568dbc 100644 --- a/docs/helm-charts/getting-started-scalardl-auditor.mdx +++ b/docs/helm-charts/getting-started-scalardl-auditor.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # Getting Started with Helm Charts (ScalarDL Ledger and Auditor / Auditor mode) diff --git a/docs/helm-charts/getting-started-scalardl-ledger.mdx b/docs/helm-charts/getting-started-scalardl-ledger.mdx index cce92edb..44d0fc80 100644 --- a/docs/helm-charts/getting-started-scalardl-ledger.mdx +++ b/docs/helm-charts/getting-started-scalardl-ledger.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # Getting Started with Helm Charts (ScalarDL Ledger / Ledger only) diff --git a/docs/helm-charts/how-to-deploy-scalar-admin-for-kubernetes.mdx b/docs/helm-charts/how-to-deploy-scalar-admin-for-kubernetes.mdx index cdf5f165..931a3b46 100644 --- a/docs/helm-charts/how-to-deploy-scalar-admin-for-kubernetes.mdx +++ b/docs/helm-charts/how-to-deploy-scalar-admin-for-kubernetes.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # How to deploy Scalar Admin for Kubernetes diff --git a/docs/helm-charts/how-to-deploy-scalar-products.mdx b/docs/helm-charts/how-to-deploy-scalar-products.mdx index 82874307..a9489c1b 100644 --- a/docs/helm-charts/how-to-deploy-scalar-products.mdx +++ b/docs/helm-charts/how-to-deploy-scalar-products.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Deploy Scalar products using Scalar Helm Charts diff --git a/docs/helm-charts/how-to-deploy-scalardb-analytics-postgresql.mdx b/docs/helm-charts/how-to-deploy-scalardb-analytics-postgresql.mdx index 90db2ce6..fb190064 100644 --- a/docs/helm-charts/how-to-deploy-scalardb-analytics-postgresql.mdx +++ b/docs/helm-charts/how-to-deploy-scalardb-analytics-postgresql.mdx @@ -1,6 +1,7 @@ --- tags: - Community +displayed_sidebar: docsEnglish --- # How to deploy ScalarDB Analytics with PostgreSQL diff --git a/docs/helm-charts/how-to-deploy-scalardb-cluster.mdx b/docs/helm-charts/how-to-deploy-scalardb-cluster.mdx index 33f7bd25..1dcc911e 100644 --- a/docs/helm-charts/how-to-deploy-scalardb-cluster.mdx +++ b/docs/helm-charts/how-to-deploy-scalardb-cluster.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # How to deploy ScalarDB Cluster diff --git a/docs/helm-charts/how-to-deploy-scalardb-graphql.mdx b/docs/helm-charts/how-to-deploy-scalardb-graphql.mdx index 6f535e4a..8bb557e6 100644 --- a/docs/helm-charts/how-to-deploy-scalardb-graphql.mdx +++ b/docs/helm-charts/how-to-deploy-scalardb-graphql.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # [Deprecated] How to deploy ScalarDB GraphQL diff --git a/docs/helm-charts/how-to-deploy-scalardb.mdx b/docs/helm-charts/how-to-deploy-scalardb.mdx index abdc593b..5acd3200 100644 --- a/docs/helm-charts/how-to-deploy-scalardb.mdx +++ b/docs/helm-charts/how-to-deploy-scalardb.mdx @@ -3,6 +3,7 @@ tags: - Enterprise Standard - Enterprise Premium - Deprecated +displayed_sidebar: docsEnglish --- # [Deprecated] How to deploy ScalarDB Server diff --git a/docs/helm-charts/how-to-deploy-scalardl-auditor.mdx b/docs/helm-charts/how-to-deploy-scalardl-auditor.mdx index b2a6d54e..15ab7f3a 100644 --- a/docs/helm-charts/how-to-deploy-scalardl-auditor.mdx +++ b/docs/helm-charts/how-to-deploy-scalardl-auditor.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # How to deploy ScalarDL Auditor diff --git a/docs/helm-charts/how-to-deploy-scalardl-ledger.mdx b/docs/helm-charts/how-to-deploy-scalardl-ledger.mdx index d2169ff0..2e9b11d2 100644 --- a/docs/helm-charts/how-to-deploy-scalardl-ledger.mdx +++ b/docs/helm-charts/how-to-deploy-scalardl-ledger.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # How to deploy ScalarDL Ledger diff --git a/docs/helm-charts/mount-files-or-volumes-on-scalar-pods.mdx b/docs/helm-charts/mount-files-or-volumes-on-scalar-pods.mdx index 026d1466..a8adcce6 100644 --- a/docs/helm-charts/mount-files-or-volumes-on-scalar-pods.mdx +++ b/docs/helm-charts/mount-files-or-volumes-on-scalar-pods.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Mount any files or volumes on Scalar product pods diff --git a/docs/helm-charts/use-secret-for-credentials.mdx b/docs/helm-charts/use-secret-for-credentials.mdx index 2f5eb8ed..12499460 100644 --- a/docs/helm-charts/use-secret-for-credentials.mdx +++ b/docs/helm-charts/use-secret-for-credentials.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # How to use Secret resources to pass credentials as environment variables into the properties file diff --git a/docs/index.mdx b/docs/index.mdx index 4f6a2e84..aeb5499c 100644 --- a/docs/index.mdx +++ b/docs/index.mdx @@ -3,6 +3,7 @@ tags: - Community - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # ScalarDB diff --git a/docs/releases/release-notes.mdx b/docs/releases/release-notes.mdx index 16ff956e..e9692fbe 100644 --- a/docs/releases/release-notes.mdx +++ b/docs/releases/release-notes.mdx @@ -3,6 +3,7 @@ tags: - Community - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # ScalarDB 3.14 Release Notes diff --git a/docs/releases/release-support-policy.mdx b/docs/releases/release-support-policy.mdx index 60e0e9f5..6e6da847 100644 --- a/docs/releases/release-support-policy.mdx +++ b/docs/releases/release-support-policy.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Release Support Policy diff --git a/docs/scalar-kubernetes/AccessScalarProducts.mdx b/docs/scalar-kubernetes/AccessScalarProducts.mdx index 40fe8f4e..543dff2e 100644 --- a/docs/scalar-kubernetes/AccessScalarProducts.mdx +++ b/docs/scalar-kubernetes/AccessScalarProducts.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Make ScalarDB or ScalarDL deployed in a Kubernetes cluster environment available from applications diff --git a/docs/scalar-kubernetes/AwsMarketplaceGuide.mdx b/docs/scalar-kubernetes/AwsMarketplaceGuide.mdx index 8594573c..2b22586b 100644 --- a/docs/scalar-kubernetes/AwsMarketplaceGuide.mdx +++ b/docs/scalar-kubernetes/AwsMarketplaceGuide.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # How to install Scalar products through AWS Marketplace diff --git a/docs/scalar-kubernetes/AzureMarketplaceGuide.mdx b/docs/scalar-kubernetes/AzureMarketplaceGuide.mdx index 6dc1b2bd..da3612a1 100644 --- a/docs/scalar-kubernetes/AzureMarketplaceGuide.mdx +++ b/docs/scalar-kubernetes/AzureMarketplaceGuide.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # How to install Scalar products through Azure Marketplace diff --git a/docs/scalar-kubernetes/BackupNoSQL.mdx b/docs/scalar-kubernetes/BackupNoSQL.mdx index 5cd59404..6882c8b1 100644 --- a/docs/scalar-kubernetes/BackupNoSQL.mdx +++ b/docs/scalar-kubernetes/BackupNoSQL.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Back up a NoSQL database in a Kubernetes environment diff --git a/docs/scalar-kubernetes/BackupRDB.mdx b/docs/scalar-kubernetes/BackupRDB.mdx index bbe64895..804d6360 100644 --- a/docs/scalar-kubernetes/BackupRDB.mdx +++ b/docs/scalar-kubernetes/BackupRDB.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Back up an RDB in a Kubernetes environment diff --git a/docs/scalar-kubernetes/BackupRestoreGuide.mdx b/docs/scalar-kubernetes/BackupRestoreGuide.mdx index 1dc99991..8faabbd4 100644 --- a/docs/scalar-kubernetes/BackupRestoreGuide.mdx +++ b/docs/scalar-kubernetes/BackupRestoreGuide.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Back up and restore ScalarDB or ScalarDL data in a Kubernetes environment diff --git a/docs/scalar-kubernetes/CreateAKSClusterForScalarDB.mdx b/docs/scalar-kubernetes/CreateAKSClusterForScalarDB.mdx index 5d32472c..2ea91d54 100644 --- a/docs/scalar-kubernetes/CreateAKSClusterForScalarDB.mdx +++ b/docs/scalar-kubernetes/CreateAKSClusterForScalarDB.mdx @@ -3,6 +3,7 @@ tags: - Enterprise Standard - Enterprise Premium - Deprecated +displayed_sidebar: docsEnglish --- # Guidelines for creating an AKS cluster for ScalarDB Server diff --git a/docs/scalar-kubernetes/CreateAKSClusterForScalarDL.mdx b/docs/scalar-kubernetes/CreateAKSClusterForScalarDL.mdx index 9f2c35ff..c22cc225 100644 --- a/docs/scalar-kubernetes/CreateAKSClusterForScalarDL.mdx +++ b/docs/scalar-kubernetes/CreateAKSClusterForScalarDL.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # Guidelines for creating an AKS cluster for ScalarDL Ledger diff --git a/docs/scalar-kubernetes/CreateAKSClusterForScalarDLAuditor.mdx b/docs/scalar-kubernetes/CreateAKSClusterForScalarDLAuditor.mdx index 64b8b82b..ce62bd0f 100644 --- a/docs/scalar-kubernetes/CreateAKSClusterForScalarDLAuditor.mdx +++ b/docs/scalar-kubernetes/CreateAKSClusterForScalarDLAuditor.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # Guidelines for creating an AKS cluster for ScalarDL Ledger and ScalarDL Auditor diff --git a/docs/scalar-kubernetes/CreateAKSClusterForScalarProducts.mdx b/docs/scalar-kubernetes/CreateAKSClusterForScalarProducts.mdx index 4a540ccb..0ecd0034 100644 --- a/docs/scalar-kubernetes/CreateAKSClusterForScalarProducts.mdx +++ b/docs/scalar-kubernetes/CreateAKSClusterForScalarProducts.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Guidelines for creating an AKS cluster for Scalar products diff --git a/docs/scalar-kubernetes/CreateBastionServer.mdx b/docs/scalar-kubernetes/CreateBastionServer.mdx index 77300b14..331c147f 100644 --- a/docs/scalar-kubernetes/CreateBastionServer.mdx +++ b/docs/scalar-kubernetes/CreateBastionServer.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Create a bastion server diff --git a/docs/scalar-kubernetes/CreateEKSClusterForScalarDB.mdx b/docs/scalar-kubernetes/CreateEKSClusterForScalarDB.mdx index 8315ed48..56d8c918 100644 --- a/docs/scalar-kubernetes/CreateEKSClusterForScalarDB.mdx +++ b/docs/scalar-kubernetes/CreateEKSClusterForScalarDB.mdx @@ -3,6 +3,7 @@ tags: - Enterprise Standard - Enterprise Premium - Deprecated +displayed_sidebar: docsEnglish --- # (Deprecated) Guidelines for creating an EKS cluster for ScalarDB Server diff --git a/docs/scalar-kubernetes/CreateEKSClusterForScalarDBCluster.mdx b/docs/scalar-kubernetes/CreateEKSClusterForScalarDBCluster.mdx index 7ad4a764..73ffe005 100644 --- a/docs/scalar-kubernetes/CreateEKSClusterForScalarDBCluster.mdx +++ b/docs/scalar-kubernetes/CreateEKSClusterForScalarDBCluster.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Guidelines for creating an EKS cluster for ScalarDB Cluster diff --git a/docs/scalar-kubernetes/CreateEKSClusterForScalarDL.mdx b/docs/scalar-kubernetes/CreateEKSClusterForScalarDL.mdx index efbab289..fa83233d 100644 --- a/docs/scalar-kubernetes/CreateEKSClusterForScalarDL.mdx +++ b/docs/scalar-kubernetes/CreateEKSClusterForScalarDL.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # Guidelines for creating an EKS cluster for ScalarDL Ledger diff --git a/docs/scalar-kubernetes/CreateEKSClusterForScalarDLAuditor.mdx b/docs/scalar-kubernetes/CreateEKSClusterForScalarDLAuditor.mdx index a1eef36c..f1752a04 100644 --- a/docs/scalar-kubernetes/CreateEKSClusterForScalarDLAuditor.mdx +++ b/docs/scalar-kubernetes/CreateEKSClusterForScalarDLAuditor.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # Guidelines for creating an EKS cluster for ScalarDL Ledger and ScalarDL Auditor diff --git a/docs/scalar-kubernetes/CreateEKSClusterForScalarProducts.mdx b/docs/scalar-kubernetes/CreateEKSClusterForScalarProducts.mdx index c179e79a..278ee172 100644 --- a/docs/scalar-kubernetes/CreateEKSClusterForScalarProducts.mdx +++ b/docs/scalar-kubernetes/CreateEKSClusterForScalarProducts.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Guidelines for creating an Amazon EKS cluster for Scalar products diff --git a/docs/scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx b/docs/scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx index fad111f5..76ad97a1 100644 --- a/docs/scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx +++ b/docs/scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # How to Create Private Key and Certificate Files for TLS Connections in Scalar Products diff --git a/docs/scalar-kubernetes/HowToGetContainerImages.mdx b/docs/scalar-kubernetes/HowToGetContainerImages.mdx index b3e3bb26..10b77dbc 100644 --- a/docs/scalar-kubernetes/HowToGetContainerImages.mdx +++ b/docs/scalar-kubernetes/HowToGetContainerImages.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # How to get the container images of Scalar products diff --git a/docs/scalar-kubernetes/HowToScaleScalarDB.mdx b/docs/scalar-kubernetes/HowToScaleScalarDB.mdx index 5090035f..76d6e2a5 100644 --- a/docs/scalar-kubernetes/HowToScaleScalarDB.mdx +++ b/docs/scalar-kubernetes/HowToScaleScalarDB.mdx @@ -3,6 +3,7 @@ tags: - Community - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # How to Scale ScalarDB diff --git a/docs/scalar-kubernetes/HowToScaleScalarDL.mdx b/docs/scalar-kubernetes/HowToScaleScalarDL.mdx index c9818134..d1adfbe3 100644 --- a/docs/scalar-kubernetes/HowToScaleScalarDL.mdx +++ b/docs/scalar-kubernetes/HowToScaleScalarDL.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # How to Scale ScalarDL diff --git a/docs/scalar-kubernetes/HowToUpgradeScalarDB.mdx b/docs/scalar-kubernetes/HowToUpgradeScalarDB.mdx index 83701249..98ce9714 100644 --- a/docs/scalar-kubernetes/HowToUpgradeScalarDB.mdx +++ b/docs/scalar-kubernetes/HowToUpgradeScalarDB.mdx @@ -3,6 +3,7 @@ tags: - Community - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # How to Upgrade ScalarDB diff --git a/docs/scalar-kubernetes/HowToUpgradeScalarDL.mdx b/docs/scalar-kubernetes/HowToUpgradeScalarDL.mdx index a4e2f6e0..1d98c52e 100644 --- a/docs/scalar-kubernetes/HowToUpgradeScalarDL.mdx +++ b/docs/scalar-kubernetes/HowToUpgradeScalarDL.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # How to Upgrade ScalarDL diff --git a/docs/scalar-kubernetes/HowToUseContainerImages.mdx b/docs/scalar-kubernetes/HowToUseContainerImages.mdx index aaae4db3..95b93618 100644 --- a/docs/scalar-kubernetes/HowToUseContainerImages.mdx +++ b/docs/scalar-kubernetes/HowToUseContainerImages.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # How to use the container images diff --git a/docs/scalar-kubernetes/K8sLogCollectionGuide.mdx b/docs/scalar-kubernetes/K8sLogCollectionGuide.mdx index c4d70e43..f6013a54 100644 --- a/docs/scalar-kubernetes/K8sLogCollectionGuide.mdx +++ b/docs/scalar-kubernetes/K8sLogCollectionGuide.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Collecting logs from Scalar products on a Kubernetes cluster diff --git a/docs/scalar-kubernetes/K8sMonitorGuide.mdx b/docs/scalar-kubernetes/K8sMonitorGuide.mdx index 801ee857..66cb123b 100644 --- a/docs/scalar-kubernetes/K8sMonitorGuide.mdx +++ b/docs/scalar-kubernetes/K8sMonitorGuide.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Monitoring Scalar products on a Kubernetes cluster diff --git a/docs/scalar-kubernetes/ManualDeploymentGuideScalarDBClusterOnEKS.mdx b/docs/scalar-kubernetes/ManualDeploymentGuideScalarDBClusterOnEKS.mdx index ac792e4d..bee02994 100644 --- a/docs/scalar-kubernetes/ManualDeploymentGuideScalarDBClusterOnEKS.mdx +++ b/docs/scalar-kubernetes/ManualDeploymentGuideScalarDBClusterOnEKS.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Deploy ScalarDB Cluster on Amazon Elastic Kubernetes Service (EKS) diff --git a/docs/scalar-kubernetes/ManualDeploymentGuideScalarDBServerOnAKS.mdx b/docs/scalar-kubernetes/ManualDeploymentGuideScalarDBServerOnAKS.mdx index b897e7ec..5a9e1d90 100644 --- a/docs/scalar-kubernetes/ManualDeploymentGuideScalarDBServerOnAKS.mdx +++ b/docs/scalar-kubernetes/ManualDeploymentGuideScalarDBServerOnAKS.mdx @@ -3,6 +3,7 @@ tags: - Enterprise Standard - Enterprise Premium - Deprecated +displayed_sidebar: docsEnglish --- # [Deprecated] Deploy ScalarDB Server on Azure Kubernetes Service (AKS) diff --git a/docs/scalar-kubernetes/ManualDeploymentGuideScalarDBServerOnEKS.mdx b/docs/scalar-kubernetes/ManualDeploymentGuideScalarDBServerOnEKS.mdx index 15f03e88..e2781658 100644 --- a/docs/scalar-kubernetes/ManualDeploymentGuideScalarDBServerOnEKS.mdx +++ b/docs/scalar-kubernetes/ManualDeploymentGuideScalarDBServerOnEKS.mdx @@ -3,6 +3,7 @@ tags: - Enterprise Standard - Enterprise Premium - Deprecated +displayed_sidebar: docsEnglish --- # Deploy ScalarDB Server on Amazon Elastic Kubernetes Service (EKS) diff --git a/docs/scalar-kubernetes/ManualDeploymentGuideScalarDLAuditorOnAKS.mdx b/docs/scalar-kubernetes/ManualDeploymentGuideScalarDLAuditorOnAKS.mdx index e73d0be5..6bae5bcd 100644 --- a/docs/scalar-kubernetes/ManualDeploymentGuideScalarDLAuditorOnAKS.mdx +++ b/docs/scalar-kubernetes/ManualDeploymentGuideScalarDLAuditorOnAKS.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # Deploy ScalarDL Ledger and ScalarDL Auditor on Azure Kubernetes Service (AKS) diff --git a/docs/scalar-kubernetes/ManualDeploymentGuideScalarDLAuditorOnEKS.mdx b/docs/scalar-kubernetes/ManualDeploymentGuideScalarDLAuditorOnEKS.mdx index 80a900f9..64c6101c 100644 --- a/docs/scalar-kubernetes/ManualDeploymentGuideScalarDLAuditorOnEKS.mdx +++ b/docs/scalar-kubernetes/ManualDeploymentGuideScalarDLAuditorOnEKS.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # Deploy ScalarDL Ledger and ScalarDL Auditor on Amazon Elastic Kubernetes Service (EKS) diff --git a/docs/scalar-kubernetes/ManualDeploymentGuideScalarDLOnAKS.mdx b/docs/scalar-kubernetes/ManualDeploymentGuideScalarDLOnAKS.mdx index 6ab18d73..554c14ea 100644 --- a/docs/scalar-kubernetes/ManualDeploymentGuideScalarDLOnAKS.mdx +++ b/docs/scalar-kubernetes/ManualDeploymentGuideScalarDLOnAKS.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # Deploy ScalarDL Ledger on Azure Kubernetes Service (AKS) diff --git a/docs/scalar-kubernetes/ManualDeploymentGuideScalarDLOnEKS.mdx b/docs/scalar-kubernetes/ManualDeploymentGuideScalarDLOnEKS.mdx index 4a3cabd9..5b4ecadf 100644 --- a/docs/scalar-kubernetes/ManualDeploymentGuideScalarDLOnEKS.mdx +++ b/docs/scalar-kubernetes/ManualDeploymentGuideScalarDLOnEKS.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # Deploy ScalarDL Ledger on Amazon Elastic Kubernetes Service (EKS) diff --git a/docs/scalar-kubernetes/NetworkPeeringForScalarDLAuditor.mdx b/docs/scalar-kubernetes/NetworkPeeringForScalarDLAuditor.mdx index 13c5ef88..fc86fbe9 100644 --- a/docs/scalar-kubernetes/NetworkPeeringForScalarDLAuditor.mdx +++ b/docs/scalar-kubernetes/NetworkPeeringForScalarDLAuditor.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # Configure Network Peering for ScalarDL Auditor Mode diff --git a/docs/scalar-kubernetes/ProductionChecklistForScalarDBCluster.mdx b/docs/scalar-kubernetes/ProductionChecklistForScalarDBCluster.mdx index 6a872a74..2a51f739 100644 --- a/docs/scalar-kubernetes/ProductionChecklistForScalarDBCluster.mdx +++ b/docs/scalar-kubernetes/ProductionChecklistForScalarDBCluster.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Production checklist for ScalarDB Cluster diff --git a/docs/scalar-kubernetes/ProductionChecklistForScalarDLAuditor.mdx b/docs/scalar-kubernetes/ProductionChecklistForScalarDLAuditor.mdx index 3adac860..8ca30ca6 100644 --- a/docs/scalar-kubernetes/ProductionChecklistForScalarDLAuditor.mdx +++ b/docs/scalar-kubernetes/ProductionChecklistForScalarDLAuditor.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # Production checklist for ScalarDL Auditor diff --git a/docs/scalar-kubernetes/ProductionChecklistForScalarDLLedger.mdx b/docs/scalar-kubernetes/ProductionChecklistForScalarDLLedger.mdx index aecf0252..c83e9cf8 100644 --- a/docs/scalar-kubernetes/ProductionChecklistForScalarDLLedger.mdx +++ b/docs/scalar-kubernetes/ProductionChecklistForScalarDLLedger.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # Production checklist for ScalarDL Ledger diff --git a/docs/scalar-kubernetes/ProductionChecklistForScalarProducts.mdx b/docs/scalar-kubernetes/ProductionChecklistForScalarProducts.mdx index a1473aae..0779599a 100644 --- a/docs/scalar-kubernetes/ProductionChecklistForScalarProducts.mdx +++ b/docs/scalar-kubernetes/ProductionChecklistForScalarProducts.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Production checklist for Scalar products diff --git a/docs/scalar-kubernetes/RegularCheck.mdx b/docs/scalar-kubernetes/RegularCheck.mdx index 0ded26ac..497546ec 100644 --- a/docs/scalar-kubernetes/RegularCheck.mdx +++ b/docs/scalar-kubernetes/RegularCheck.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Components to Regularly Check When Running in a Kubernetes Environment diff --git a/docs/scalar-kubernetes/RestoreDatabase.mdx b/docs/scalar-kubernetes/RestoreDatabase.mdx index 6f245a36..61a615e3 100644 --- a/docs/scalar-kubernetes/RestoreDatabase.mdx +++ b/docs/scalar-kubernetes/RestoreDatabase.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Restore databases in a Kubernetes environment diff --git a/docs/scalar-kubernetes/SetupDatabase.mdx b/docs/scalar-kubernetes/SetupDatabase.mdx index 5fe79255..3ffe0967 100644 --- a/docs/scalar-kubernetes/SetupDatabase.mdx +++ b/docs/scalar-kubernetes/SetupDatabase.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Set up a database for ScalarDB/ScalarDL deployment diff --git a/docs/scalar-kubernetes/SetupDatabaseForAWS.mdx b/docs/scalar-kubernetes/SetupDatabaseForAWS.mdx index 266fe096..78c817fd 100644 --- a/docs/scalar-kubernetes/SetupDatabaseForAWS.mdx +++ b/docs/scalar-kubernetes/SetupDatabaseForAWS.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Set up a database for ScalarDB/ScalarDL deployment on AWS diff --git a/docs/scalar-kubernetes/SetupDatabaseForAzure.mdx b/docs/scalar-kubernetes/SetupDatabaseForAzure.mdx index 7b2c34b6..01ee90ad 100644 --- a/docs/scalar-kubernetes/SetupDatabaseForAzure.mdx +++ b/docs/scalar-kubernetes/SetupDatabaseForAzure.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Set up a database for ScalarDB/ScalarDL deployment on Azure diff --git a/docs/scalar-kubernetes/alerts/Envoy.mdx b/docs/scalar-kubernetes/alerts/Envoy.mdx index dcc3beb4..95183274 100644 --- a/docs/scalar-kubernetes/alerts/Envoy.mdx +++ b/docs/scalar-kubernetes/alerts/Envoy.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Envoy Alerts diff --git a/docs/scalar-kubernetes/alerts/Ledger.mdx b/docs/scalar-kubernetes/alerts/Ledger.mdx index 2a70882d..72d14971 100644 --- a/docs/scalar-kubernetes/alerts/Ledger.mdx +++ b/docs/scalar-kubernetes/alerts/Ledger.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # Ledger Alerts diff --git a/docs/scalar-kubernetes/alerts/README.mdx b/docs/scalar-kubernetes/alerts/README.mdx index d97a2b13..6048b065 100644 --- a/docs/scalar-kubernetes/alerts/README.mdx +++ b/docs/scalar-kubernetes/alerts/README.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Scalar Alerts diff --git a/docs/scalar-manager/overview.mdx b/docs/scalar-manager/overview.mdx index 8db0a86b..04ee30f7 100644 --- a/docs/scalar-manager/overview.mdx +++ b/docs/scalar-manager/overview.mdx @@ -1,6 +1,7 @@ --- tags: - Enterprise Option +displayed_sidebar: docsEnglish --- # Scalar Manager Overview diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-envoy.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-envoy.mdx index 635a29f3..5bb4ae66 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-envoy.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-envoy.mdx @@ -2,29 +2,30 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- +# Scalar Envoy のカスタム値ファイルを構成する + import Tabs from '@theme/Tabs'; import TabItem from '@theme/TabItem'; -# Scalar Envoy のカスタム値ファイルを構成する - -このドキュメントでは、Scalar Envoy チャートのカスタム値ファイルを作成する方法について説明します。 パラメータの詳細を知りたい場合は、Scalar Envoy チャートの [README](https://github.com/scalar-labs/helm-charts/blob/main/charts/envoy/README.md) を参照してください。 +このドキュメントでは、Scalar Envoy チャートのカスタム値ファイルを作成する方法について説明します。パラメータの詳細を知りたい場合は、Scalar Envoy チャートの [README](https://github.com/scalar-labs/helm-charts/blob/main/charts/envoy/README.md) を参照してください。 ## Scalar Envoy チャートのカスタム値を構成する -Scalar Envoy チャートは他のチャート (scalardb、scalardb-cluster、scalardl、scalardl-audit) 経由で使用されるため、Scalar Envoy チャートのカスタム値ファイルを作成する必要はありません。 Scalar Envoy を設定したい場合は、`envoy.*` 設定を他のチャートに追加する必要があります。 +Scalar Envoy チャートは他のチャート (scalardb、scalardb-cluster、scalardl、scalardl-audit) 経由で使用されるため、Scalar Envoy チャートのカスタム値ファイルを作成する必要はありません。Scalar Envoy を設定したい場合は、`envoy.*` 設定を他のチャートに追加する必要があります。 たとえば、ScalarDB Server 用に Scalar Envoy を構成する場合は、次のように ScalarDB のカスタム値ファイルでいくつかの Scalar Envoy 構成を構成できます。 * 例 (scalardb-custom-values.yaml) ```yaml envoy: - configurationsForScalarEnvoy: + configurationsForScalarEnvoy: ... - + scalardb: - configurationsForScalarDB: + configurationsForScalarDB: ... ``` @@ -32,9 +33,9 @@ Scalar Envoy チャートは他のチャート (scalardb、scalardb-cluster、sc ### サービス構成 -Kubernetes のサービス リソース タイプを指定するには、`envoy.service.type` を設定する必要があります。 +Kubernetes のサービスリソースタイプを指定するには、`envoy.service.type` を設定する必要があります。 -Kubernetes クラスターの内部からのみクライアント リクエストを受け入れる場合 (たとえば、クライアント アプリケーションを Scalar 製品と同じ Kubernetes クラスターにデプロイする場合)、`envoy.service.type` を `ClusterIP` に設定できます。 この構成では、クラウド サービス プロバイダーが提供するロード バランサーは作成されません。 +Kubernetes クラスターの内部からのみクライアントリクエストを受け入れる場合 (たとえば、クライアントアプリケーションを Scalar 製品と同じ Kubernetes クラスターにデプロイする場合)、`envoy.service.type` を `ClusterIP` に設定できます。この構成では、クラウドサービスプロバイダーが提供するロードバランサーは作成されません。 ```yaml envoy: @@ -42,7 +43,7 @@ envoy: type: ClusterIP ``` -クラウド サービス プロバイダーが提供するロード バランサーを使用して、Kubernetes クラスターの外部からのクライアント リクエストを受け入れる場合は、`envoy.service.type` を `LoadBalancer` に設定する必要があります。 +クラウドサービスプロバイダーが提供するロードバランサーを使用して、Kubernetes クラスターの外部からのクライアントリクエストを受け入れる場合は、`envoy.service.type` を `LoadBalancer` に設定する必要があります。 ```yaml envoy: @@ -65,9 +66,9 @@ envoy: ### リソース構成 (本番環境で推奨) -Kubernetes のリクエストと制限を使用してポッド リソースを制御したい場合は、`envoy.resources` を使用できます。 +Kubernetes のリクエストと制限を使用してポッドリソースを制御したい場合は、`envoy.resources` を使用できます。 -これらは、Kubernetes のリクエストと制限と同じ構文を使用して構成できます。 そのため、Kubernetes の要求と制限の詳細については、公式ドキュメント [Resource Management for Pods and Containers](https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/) を参照してください。 +これらは、Kubernetes のリクエストと制限と同じ構文を使用して構成できます。そのため、Kubernetes の要求と制限の詳細については、公式ドキュメント [Resource Management for Pods and Containers](https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/) を参照してください。 ```yaml envoy: @@ -84,7 +85,7 @@ envoy: Kubernetes のアフィニティと反アフィニティを使用してポッドのデプロイメントを制御したい場合は、`envoy.affinity` を使用できます。 -Kubernetes のアフィニティと同じ構文を使用して構成できます。 そのため、Kubernetes のアフィニティ設定の詳細については、公式ドキュメント [Assigning Pods to Nodes](https://kubernetes.io/docs/concepts/scheduling-eviction/assign-pod-node/) を参照してください。 +Kubernetes のアフィニティと同じ構文を使用して構成できます。そのため、Kubernetes のアフィニティ設定の詳細については、公式ドキュメント [Assigning Pods to Nodes](https://kubernetes.io/docs/concepts/scheduling-eviction/assign-pod-node/) を参照してください。 ```yaml envoy: @@ -108,7 +109,7 @@ envoy: ### Prometheus および Grafana 構成 (実稼働環境で推奨) -[kube-prometheus-stack](https://github.com/prometheus-community/helm-charts/tree/main/charts/kube-prometheus-stack) を使用して Scalar Envoy ポッドを監視する場合は、`envoy.grafanaDashboard.enabled`、`envoy.serviceMonitor` を使用して、kube-prometheus-stack の ConfigMap、ServiceMonitor、および PrometheusRule リソースをデプロイできます。 `envoy.prometheusRule.enabled` と `envoy.prometheusRule.enabled`。 +[kube-prometheus-stack](https://github.com/prometheus-community/helm-charts/tree/main/charts/kube-prometheus-stack) を使用して Scalar Envoy ポッドを監視する場合は、`envoy.grafanaDashboard.enabled`、`envoy.serviceMonitor` を使用して、kube-prometheus-stack の ConfigMap、ServiceMonitor、および PrometheusRule リソースをデプロイできます。`envoy.prometheusRule.enabled` と `envoy.prometheusRule.enabled`。 ```yaml envoy: @@ -128,7 +129,7 @@ envoy: Scalar Envoy ポッドに SecurityContext と PodSecurityContext を設定する場合は、`envoy.securityContext` と `envoy.podSecurityContext` を使用できます。 -KubernetesのSecurityContextやPodSecurityContextと同じ構文を使用して設定できます。 したがって、Kubernetes の SecurityContext および PodSecurityContext 構成の詳細については、公式ドキュメント [Configure a Security Context for a Pod or Container](https://kubernetes.io/docs/tasks/configure-pod-container/security-context/) を参照してください。 +Kubernetes の SecurityContext や PodSecurityContext と同じ構文を使用して設定できます。したがって、Kubernetes の SecurityContext および PodSecurityContext 構成の詳細については、公式ドキュメント [Configure a Security Context for a Pod or Container](https://kubernetes.io/docs/tasks/configure-pod-container/security-context/) を参照してください。 ```yaml envoy: @@ -145,7 +146,7 @@ envoy: ### 画像構成 (デフォルト値を推奨) -イメージ リポジトリとバージョンを変更したい場合は、`envoy.image.repository` を使用して、プルする Scalar Envoy コンテナ イメージのコンテナ リポジトリ情報を指定できます。 +イメージリポジトリとバージョンを変更したい場合は、`envoy.image.repository` を使用して、プルする Scalar Envoy コンテナイメージのコンテナリポジトリ情報を指定できます。 ```yaml envoy: @@ -165,7 +166,7 @@ AWS または Azure を使用している場合、詳細については次のド - クライアントと Scalar Envoy 間のダウンストリーム接続。 - Scalar Envoy と Scalar 製品間のアップストリーム接続。 -さらに、次の 2 つの観点からいくつかのオプションがあります。 +さらに、次の2つの観点からいくつかのオプションがあります。 1. 秘密鍵と証明書ファイルの管理 1. [cert-manager](https://cert-manager.io/docs/) を使用して秘密鍵と証明書ファイルを自動的に管理します。 @@ -174,7 +175,7 @@ AWS または Azure を使用している場合、詳細については次のド 1. 秘密鍵と証明書ファイルを手動で管理します。 - ご自身のお好みの方法で、秘密鍵と証明書ファイルを発行・管理することができます。 - cert-manager がサポートしていない場合でも、任意の証明書を使用できます。 - - 証明書の有効期限が切れた場合は、シークレット リソースを更新する必要があります。 + - 証明書の有効期限が切れた場合は、シークレットリソースを更新する必要があります。 1. 証明書の種類 1. 信頼できる CA (サードパーティによる署名付き証明書) を使用します。 - サードパーティの証明書発行者からの信頼できる証明書を使用できます。 @@ -184,7 +185,7 @@ AWS または Azure を使用している場合、詳細については次のド - 証明書発行にかかるコストを削減できます。 - 証明書の信頼性は信頼できる CA よりも低くなりますが、パケットを暗号化できます。 -つまり、次の 4 つのオプションがあります。 +つまり、次の4つのオプションがあります。 1. 自動管理で自己署名 CA を使用します。 1. 自動管理で信頼できる CA を使用します。 @@ -241,7 +242,7 @@ kubectl create secret generic envoy-tls-cert --from-file=tls.crt=/ -n ``` -秘密鍵と証明書ファイルの準備方法の詳細については、[Scalar 製品の秘密鍵と証明書ファイルの作成方法](../scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx) を参照してください。 +秘密鍵と証明書ファイルの準備方法の詳細については、[Scalar 製品の秘密鍵と証明書ファイルの作成方法](../scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx)を参照してください。 ##### cert-manager で信頼できる CA を使用して秘密鍵と証明書ファイルを管理する @@ -250,8 +251,8 @@ kubectl create secret generic envoy-tls-key --from-file=tls.key=/ @@ -353,11 +354,11 @@ envoy: -秘密鍵と証明書ファイルを準備する方法の詳細については、[Scalar 製品のキーと証明書ファイルを作成する方法](../scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx) を参照してください。 +秘密鍵と証明書ファイルを準備する方法の詳細については、[Scalar 製品のキーと証明書ファイルを作成する方法](../scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx)を参照してください。 ##### TLS通信のカスタム権限を設定する -`envoy.tls.upstream.overrideAuthority` を使用して、TLS 通信のカスタム権限を設定できます。この値によって、実際に接続されているホストが変わることはありません。この値はテスト用ですが、DNS オーバーライドの代替としてテスト以外でも安全に使用できます。たとえば、使用している製品に応じて、`scalardbCluster.tls.certChainSecret`、`ledger.tls.certChainSecret`、または `auditor.tls.certChainSecret` を使用して設定した証明書チェーン ファイルに示されているホスト名を指定できます。Envoy はこの値を使用して、ScalarDB Cluster または ScalarDL との TLS 接続の証明書を検証します。 +`envoy.tls.upstream.overrideAuthority` を使用して、TLS 通信のカスタム権限を設定できます。この値によって、実際に接続されているホストが変わることはありません。この値はテスト用ですが、DNS オーバーライドの代替としてテスト以外でも安全に使用できます。たとえば、使用している製品に応じて、`scalardbCluster.tls.certChainSecret`、`ledger.tls.certChainSecret`、または `auditor.tls.certChainSecret` を使用して設定した証明書チェーンファイルに示されているホスト名を指定できます。Envoy はこの値を使用して、ScalarDB Cluster または ScalarDL との TLS 接続の証明書を検証します。 ```yaml envoy: @@ -380,7 +381,7 @@ envoy: Kubernetes のテイントと許容を使用してポッドのデプロイメントを制御したい場合は、`envoy.tolerations` を使用できます。 -Kubernetes の許容と同じ構文を使用して、テイントと許容を構成できます。 Kubernetes での許容設定の詳細については、Kubernetes の公式ドキュメント [Taints and Tolerations](https://kubernetes.io/docs/concepts/scheduling-eviction/taint-and-toleration/) を参照してください。 +Kubernetes の許容と同じ構文を使用して、テイントと許容を構成できます。Kubernetes での許容設定の詳細については、Kubernetes の公式ドキュメント [Taints and Tolerations](https://kubernetes.io/docs/concepts/scheduling-eviction/taint-and-toleration/) を参照してください。 ```yaml envoy: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-file.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-file.mdx index 459392dc..b2ddeb0c 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-file.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-file.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Scalar Helm Charts のカスタム値ファイルを構成する @@ -10,7 +11,7 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -Scalar Helm Chart を使用して Scalar 製品をデプロイする場合は、環境に基づいてカスタム値ファイルを準備する必要があります。 各製品のカスタム値ファイルの作成方法の詳細については、次のドキュメントを参照してください。 +Scalar Helm Chart を使用して Scalar 製品をデプロイする場合は、環境に基づいてカスタム値ファイルを準備する必要があります。各製品のカスタム値ファイルの作成方法の詳細については、次のドキュメントを参照してください。 * [ScalarDB Cluster](configure-custom-values-scalardb-cluster.mdx) * [ScalarDB Analytics with PostgreSQL](configure-custom-values-scalardb-analytics-postgresql.mdx) diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-scalar-admin-for-kubernetes.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-scalar-admin-for-kubernetes.mdx index 0327f4e1..a25f7733 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-scalar-admin-for-kubernetes.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-scalar-admin-for-kubernetes.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Scalar Admin for Kubernetes のカスタム値ファイルを構成する @@ -10,7 +11,7 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、Scalar Admin for Kubernetes チャートのカスタム値ファイルを作成する方法について説明します。 パラメーターの詳細については、Scalar Admin for Kubernetes チャートの [README](https://github.com/scalar-labs/helm-charts/blob/main/charts/scalar-admin-for-kubernetes/README.md) を参照してください。 +このドキュメントでは、Scalar Admin for Kubernetes チャートのカスタム値ファイルを作成する方法について説明します。パラメーターの詳細については、Scalar Admin for Kubernetes チャートの [README](https://github.com/scalar-labs/helm-charts/blob/main/charts/scalar-admin-for-kubernetes/README.md) を参照してください。 ## 必要な構成 @@ -18,7 +19,7 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; ### フラグ設定 -Scalar Admin for Kubernetes を実行するには、配列として `scalarAdminForKubernetes.commandArgs` にいくつかのフラグを指定する必要があります。 フラグの詳細については、Scalar Admin for Kubernetes の [README](https://github.com/scalar-labs/scalar-admin-for-kubernetes/blob/main/README.md) を参照してください。 +Scalar Admin for Kubernetes を実行するには、配列として `scalarAdminForKubernetes.commandArgs` にいくつかのオプションを指定する必要があります。オプションの詳細については、Scalar Admin for Kubernetes の [README](https://github.com/scalar-labs/scalar-admin-for-kubernetes/blob/main/README.md) を参照してください。 ```yaml scalarAdminForKubernetes: @@ -39,7 +40,7 @@ scalarAdminForKubernetes: ### CronJob 構成 (環境に応じてオプション) -デフォルトでは、Scalar Admin for Kubernetes チャートは、Scalar Admin for Kubernetes CLI ツールを 1 回実行するための [Job](https://kubernetes.io/docs/concepts/workloads/controllers/job/) リソースを作成します。 [CronJob](https://kubernetes.io/docs/concepts/workloads/controllers/cron-jobs/) を使用して Scalar Admin for Kubernetes CLI ツールを定期的に実行する場合は、`scalarAdminForKubernetes.jobType` を `cronjob` に設定できます。 また、CronJob リソースのいくつかの構成を設定することもできます。 +デフォルトでは、Scalar Admin for Kubernetes チャートは、Scalar Admin for Kubernetes CLI ツールを1回実行するための [Job](https://kubernetes.io/docs/concepts/workloads/controllers/job/) リソースを作成します。[CronJob](https://kubernetes.io/docs/concepts/workloads/controllers/cron-jobs/) を使用して Scalar Admin for Kubernetes CLI ツールを定期的に実行する場合は、`scalarAdminForKubernetes.jobType` を `cronjob` に設定できます。また、CronJob リソースのいくつかの構成を設定することもできます。 ```yaml scalarAdminForKubernetes: @@ -50,9 +51,9 @@ scalarAdminForKubernetes: ### リソース構成 (実稼働環境で推奨) -Kubernetes でリクエストと制限を使用してポッド リソースを制御するには、`scalarAdminForKubernetes.resources` を使用できます。 +Kubernetes でリクエストと制限を使用してポッドリソースを制御するには、`scalarAdminForKubernetes.resources` を使用できます。 -Kubernetes のリクエストと制限と同じ構文を使用して、リクエストと制限を構成できます。 Kubernetes のリクエストと制限の詳細については、[Resource Management for Pods and Containers](https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/) を参照してください。 +Kubernetes のリクエストと制限と同じ構文を使用して、リクエストと制限を構成できます。Kubernetes のリクエストと制限の詳細については、[Resource Management for Pods and Containers](https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/) を参照してください。 ```yaml scalarAdminForKubernetes: @@ -69,7 +70,7 @@ scalarAdminForKubernetes: Scalar Admin for Kubernetes ポッドの SecurityContext と PodSecurityContext を設定するには、`scalarAdminForKubernetes.securityContext` と `scalarAdminForKubernetes.podSecurityContext` を使用できます。 -Kubernetes の SecurityContext および PodSecurityContext と同じ構文を使用して、SecurityContext および PodSecurityContext を構成できます。 Kubernetes の SecurityContext および PodSecurityContext 構成の詳細については、[Configure a Security Context for a Pod or Container](https://kubernetes.io/docs/tasks/configure-pod-container/security-context/) を参照してください。 +Kubernetes の SecurityContext および PodSecurityContext と同じ構文を使用して、SecurityContext および PodSecurityContext を構成できます。Kubernetes の SecurityContext および PodSecurityContext 構成の詳細については、[Configure a Security Context for a Pod or Container](https://kubernetes.io/docs/tasks/configure-pod-container/security-context/) を参照してください。 ```yaml scalarAdminForKubernetes: @@ -86,7 +87,7 @@ scalarAdminForKubernetes: ### 画像構成 (デフォルト値を推奨) -イメージ リポジトリを変更する場合は、`scalarAdminForKubernetes.image.repository` を使用して、プルする Scalar Admin for Kubernetes イメージのコンテナ リポジトリ情報を指定できます。 +イメージリポジトリを変更する場合は、`scalarAdminForKubernetes.image.repository` を使用して、プルする Scalar Admin for Kubernetes イメージのコンテナリポジトリ情報を指定できます。 ```yaml scalarAdminForKubernetes: @@ -98,7 +99,7 @@ scalarAdminForKubernetes: Kubernetes のテイントと許容を使用してポッドのデプロイメントを制御したい場合は、`scalarAdminForKubernetes.tolerations` を使用できます。 -Kubernetes の許容と同じ構文を使用して、テイントと許容を構成できます。 Kubernetes での許容設定の詳細については、Kubernetes の公式ドキュメント [Taints and Tolerations](https://kubernetes.io/docs/concepts/scheduling-eviction/taint-and-toleration/) を参照してください。 +Kubernetes の許容と同じ構文を使用して、テイントと許容を構成できます。Kubernetes での許容設定の詳細については、Kubernetes の公式ドキュメント [Taints and Tolerations](https://kubernetes.io/docs/concepts/scheduling-eviction/taint-and-toleration/) を参照してください。 ```yaml scalarAdminForKubernetes: @@ -124,7 +125,7 @@ scalarAdminForKubernetes: - cluster.scalardb.example.com ``` -シークレットリソースを使用して、`/tls/certs/ca.crt` ファイルをポッドにマウントできます。 `scalarAdminForKubernetes.tls.caRootCertSecret` にルート CA 証明書ファイルを含むシークレットリソースの名前を指定してください。 +シークレットリソースを使用して、`/tls/certs/ca.crt` ファイルをポッドにマウントできます。`scalarAdminForKubernetes.tls.caRootCertSecret` にルート CA 証明書ファイルを含むシークレットリソースの名前を指定してください。 ```yaml scalarAdminForKubernetes: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-scalar-manager.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-scalar-manager.mdx index 02db429c..94eb109d 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-scalar-manager.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-scalar-manager.mdx @@ -1,6 +1,7 @@ --- tags: - Enterprise Option +displayed_sidebar: docsJapanese --- # Scalar Manager のカスタム値ファイルを構成する @@ -9,28 +10,28 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、Scalar Manager チャートのカスタム値ファイルを作成する方法について説明します。 パラメータの詳細を知りたい場合は、Scalar Manager チャートの [README](https://github.com/scalar-labs/helm-charts/blob/main/charts/scalar-manager/README.md) を参照してください。 +このドキュメントでは、Scalar Manager チャートのカスタム値ファイルを作成する方法について説明します。パラメータの詳細を知りたい場合は、Scalar Manager チャートの [README](https://github.com/scalar-labs/helm-charts/blob/main/charts/scalar-manager/README.md) を参照してください。 ## 必要な構成 ### サービス構成 -Kubernetes のサービスリソースタイプを指定するには、`service.type` を設定する必要があります。 プロバイダーが提供するロードバランサーを使用する場合は、`service.type`を`LoadBalancer`に設定する必要があります。 +Kubernetes のサービスリソースタイプを指定するには、`service.type` を設定する必要があります。プロバイダーが提供するロードバランサーを使用する場合は、`service.type` を `LoadBalancer` に設定する必要があります。 ```yaml service: type: LoadBalancer ``` -#### Scalar Managerの公開に関するセキュリティ上の懸念 +#### Scalar Manager の公開に関するセキュリティ上の懸念 -`service.type`を`LoadBalancer`に設定すると、Scalar Managerがクラスター外に公開されるため、セキュリティ上の懸念が生じる可能性があります。 +`service.type` を `LoadBalancer` に設定すると、Scalar Manager がクラスター外に公開されるため、セキュリティ上の懸念が生じる可能性があります。 -現在、Scalar Managerには認証やアクセス制御のメカニズムがありません。 -このため、適切なセキュリティ対策なしにScalar Managerを直接パブリックネットワークに公開すると、不正なアクションにつながる可能性があります。 -これは、Scalar Managerが Scalar製品の一時停止ジョブのスケジューリングなどの機能を提供しているためです。 +現在、Scalar Manager には認証やアクセス制御のメカニズムがありません。 +このため、適切なセキュリティ対策なしに Scalar Manager を直接パブリックネットワークに公開すると、不正なアクションにつながる可能性があります。 +これは、Scalar Manager が Scalar 製品の一時停止ジョブのスケジューリングなどの機能を提供しているためです。 -外部アクセスが必要な場合は、プライベートネットワークを使用するか、Kubernetesクラスターへのネットワークアクセスを適切に設定することをお勧めします。 +外部アクセスが必要な場合は、プライベートネットワークを使用するか、Kubernetes クラスターへのネットワークアクセスを適切に設定することをお勧めします。 ### 画像構成 @@ -48,8 +49,8 @@ web: ## オプション設定 このセクションでは、Scalar Manager用のカスタム値ファイルを設定する際のオプション設定について説明します。 -### Scalar Manager設定(環境に応じてオプション) -`api.applicationProperties`カスタム値を上書きして、Scalar Managerのデフォルト設定を変更できます。 +### Scalar Manager 設定 (環境に応じてオプション) +`api.applicationProperties` カスタム値を上書きして、Scalar Managerのデフォルト設定を変更できます。 ```yaml api: @@ -62,40 +63,40 @@ api: Scalar Managerには、例えばScalar製品のデプロイメントやクラスター内のPrometheusおよびLokiサービスを検出するためのデフォルト設定があります。 ほとんどのユースケースでは、特にkube-prometheus-stackのデプロイガイドやloki-stackのデプロイガイドに従っている場合、デフォルト設定を変更する必要はありません。 -#### api.applicationPropertiesで設定できるプロパティ +#### api.applicationProperties で設定できるプロパティ -Scalar Managerの設定は、Javaアプリケーションプロパティの形式で、key=valueのペアです。 -これらのアプリケーションプロパティは、Scalar Manager Helm Chartのapi.applicationPropertiesカスタム値を使用して設定できます。 +Scalar Manager の設定は、Java アプリケーションプロパティの形式で、key=valueのペアです。 +これらのアプリケーションプロパティは、Scalar Manager Helm Chart の api.applicationProperties カスタム値を使用して設定できます。 |名前|説明|デフォルト値| |---|---|---| -|`grafana.kubernetesServiceLabelName`|KubernetesでGrafanaサービスを検出するために使用されるラベル名|`app.kubernetes.io/name`| -|`grafana.kubernetesServiceLabelValue`|`grafana.kubernetesServiceLabelName`に対応するラベル値|`grafana`| -|`grafana.kubernetesServicePortName`|KubernetesでGrafanaサービスポートを検出するために使用されるポート名|`http-web`| -|`prometheus.kubernetesServiceLabelName`|KubernetesでPrometheusサービスを検出するために使用されるラベル名|`app`| -|`prometheus.kubernetesServiceLabelValue`|`prometheus.kubernetesServiceLabelName`に対応するラベル値|`kube-prometheus-stack-prometheus`| -|`prometheus.kubernetesServicePortName`|KubernetesでPrometheusサービスポートを検出するために使用されるポート名|`http-web`| -|`loki.kubernetesServiceLabelName`|KubernetesでPrometheusサービスを検出するために使用されるラベル名|`app`| -|`loki.kubernetesServiceLabelValue`|`loki.kubernetesServiceLabelName`に対応するラベル値|`loki`| -|`loki.kubernetesServicePortName`|KubernetesでLokiサービスポートを検出するために使用されるポート名|`http-metrics`| -|`helm.scalarRepositoryName`|Scalar Helmリポジトリを表すために使用される名前|`scalar-labs`| -|`helm.scalarRepositoryUrl`|Scalar HelmリポジトリのURL|`https://scalar-labs.github.io/helm-charts`| -|`helm.scalarAdminForKubernetesChartName`|Scalar HelmリポジトリにおけるKubernetes用Scalar Adminの Helm Chart名|`scalar-admin-for-kubernetes`| -|`helm.scalarAdminForKubernetesChartVersion`|Kubernetes用Scalar Admin Helm Chartのバージョン|`1.0.0`| -|`configMapNamespace`|Scalar Managerが使用するConfigMapがデプロイされる名前空間|`default`| -|`configMapName`|Scalar Managerが使用するConfigMapの名前|`scalar-manager-metadata`| +|`grafana.kubernetesServiceLabelName`|Kubernetes で Grafana サービスを検出するために使用されるラベル名|`app.kubernetes.io/name`| +|`grafana.kubernetesServiceLabelValue`|`grafana.kubernetesServiceLabelName` に対応するラベル値|`grafana`| +|`grafana.kubernetesServicePortName`|Kubernetes で Grafana サービスポートを検出するために使用されるポート名|`http-web`| +|`prometheus.kubernetesServiceLabelName`|Kubernetes で Prometheus サービスを検出するために使用されるラベル名|`app`| +|`prometheus.kubernetesServiceLabelValue`|`prometheus.kubernetesServiceLabelName` に対応するラベル値|`kube-prometheus-stack-prometheus`| +|`prometheus.kubernetesServicePortName`|Kubernetes で Prometheus サービスポートを検出するために使用されるポート名|`http-web`| +|`loki.kubernetesServiceLabelName`|Kubernetes で Prometheus サービスを検出するために使用されるラベル名|`app`| +|`loki.kubernetesServiceLabelValue`|`loki.kubernetesServiceLabelName` に対応するラベル値|`loki`| +|`loki.kubernetesServicePortName`|Kubernetes で Loki サービスポートを検出するために使用されるポート名|`http-metrics`| +|`helm.scalarRepositoryName`|Scalar Helm リポジトリを表すために使用される名前|`scalar-labs`| +|`helm.scalarRepositoryUrl`|Scalar Helm リポジトリの URL|`https://scalar-labs.github.io/helm-charts`| +|`helm.scalarAdminForKubernetesChartName`|Scalar Helm リポジトリにおける Kubernetes 用 Scalar Admin の Helm Chart 名|`scalar-admin-for-kubernetes`| +|`helm.scalarAdminForKubernetesChartVersion`|Kubernetes 用 Scalar Admin Helm Chart のバージョン|`1.0.0`| +|`configMapNamespace`|Scalar Manager が使用する ConfigMap がデプロイされる名前空間|`default`| +|`configMapName`|Scalar Manager が使用する ConfigMap の名前|`scalar-manager-metadata`| |`paused-state-retention.storage`|一時停止状態を保持するために使用されるストレージタイプ|`configmap`| -|`paused-state-retention.max-number`|Scalar Managerが保持する一時停止状態の最大数|`100`| +|`paused-state-retention.max-number`|Scalar Manager が保持する一時停止状態の最大数|`100`| #### サービスディスカバリー -Scalar Managerはラベルセレクターを使用して、Kubernetes内のGrafana、Prometheus、Lokiサービスを検出し、ポート名を使用してそれらに接続します。`*.kubernetesServiceLabelName`、`*.kubernetesServiceLabelValue`、`*.kubernetesServicePortName`の設定を変更することで、ラベルセレクターとポート名を修正できます。 +Scalar Manager はラベルセレクターを使用して、Kubernetes 内の Grafana、Prometheus、Loki サービスを検出し、ポート名を使用してそれらに接続します。`*.kubernetesServiceLabelName`、`*.kubernetesServiceLabelValue`、`*.kubernetesServicePortName` の設定を変更することで、ラベルセレクターとポート名を修正できます。 -一般的に、これらの設定を変更する必要はありません。ただし、Grafana、Prometheus、またはLokiサービスのHelm Chartをインストールする際にラベルやポート名をカスタマイズした場合は、これらの設定をカスタマイズに合わせて調整する必要があります。 +一般的に、これらの設定を変更する必要はありません。ただし、Grafana、Prometheus、または Loki サービスの Helm Chart をインストールする際にラベルやポート名をカスタマイズした場合は、これらの設定をカスタマイズに合わせて調整する必要があります。 -##### Kubernetes用Scalar Adminの使用 +##### Kubernetes 用 Scalar Admin の使用 -Scalar Managerは、[Kubernetes用Scalar Admin](https://github.com/scalar-labs/scalar-admin-for-kubernetes) Helm Chartをインストールして、Scalar製品の一時停止ジョブのスケジューリングや実行を行います。以下の設定を使用して、Scalar Helmリポジトリをセットアップし、Helm Chartを配置します: +Scalar Manager は、[Kubernetes 用 Scalar Admin](https://github.com/scalar-labs/scalar-admin-for-kubernetes) Helm Chart をインストールして、Scalar製品の一時停止ジョブのスケジューリングや実行を行います。以下の設定を使用して、Scalar Helm リポジトリをセットアップし、Helm Chart を配置します: - `helm.scalarRepositoryName` - `helm.scalarRepositoryUrl` @@ -103,24 +104,30 @@ Scalar Managerは、[Kubernetes用Scalar Admin](https://github.com/scalar-labs/s - `helm.scalarAdminForKubernetesChartVersion` :::note + 特別な理由がない限り、これらの設定を変更することはお勧めしません。 + ::: -##### Scalar Managerが使用するConfigMap +##### Scalar Manager が使用する ConfigMap -Scalar Managerは、デフォルトのアプリケーションプロパティなどのメタデータを保存するためにConfigMapを使用します。ConfigMapは以下の設定で指定された名前空間にデプロイされます: +Scalar Manager は、デフォルトのアプリケーションプロパティなどのメタデータを保存するために ConfigMap を使用します。ConfigMap は以下の設定で指定された名前空間にデプロイされます: - `configMapNamespace` - `configMapName` :::note -競合するConfigMapを使用している場合など、特別な理由がない限り、これらの設定を変更することはお勧めしません。 + +競合する ConfigMap を使用している場合など、特別な理由がない限り、これらの設定を変更することはお勧めしません。 + ::: ##### 一時停止状態の保持 -Scalar Managerは、Scalar製品の一時停止状態をストレージに保持します。現在、Scalar ManagerはストレージとしてConfigMapのみを使用できるため、`paused-state-retention.storage`設定は`configmap`に設定する必要があります。`paused-state-retention.max-number`設定を設定することで、Scalar Managerが保持する一時停止状態の最大数を調整できます。 +Scalar Manager は、Scalar 製品の一時停止状態をストレージに保持します。現在、Scalar Manager はストレージとして ConfigMap のみを使用できるため、`paused-state-retention.storage` 設定は `configmap` に設定する必要があります。`paused-state-retention.max-number` 設定を設定することで、Scalar Manager が保持する一時停止状態の最大数を調整できます。 :::warning -ストレージにConfigMapを使用する場合、ConfigMapのサイズ制限があるため、`paused-state-retention.max-number`に大きな値を設定することはお勧めしません。ConfigMapに保存されるデータは1 MiBを超えることができないため、Scalar Managerが保持できる一時停止状態の最大数は約3,000です。 + +ストレージに ConfigMap を使用する場合、ConfigMap のサイズ制限があるため、`paused-state-retention.max-number` に大きな値を設定することはお勧めしません。ConfigMap に保存されるデータは 1MiB を超えることができないため、Scalar Manager が保持できる一時停止状態の最大数は約3,000です。 + ::: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-scalardb-analytics-postgresql.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-scalardb-analytics-postgresql.mdx index d0273aab..0c6b8bf9 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-scalardb-analytics-postgresql.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-scalardb-analytics-postgresql.mdx @@ -1,6 +1,7 @@ --- tags: - Community +displayed_sidebar: docsJapanese --- # ScalarDB Analytics with PostgreSQL のカスタム値ファイルを構成する @@ -9,15 +10,15 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、PostgreSQL チャートを使用した ScalarDB Analytics のカスタム値ファイルを作成する方法について説明します。 パラメーターの詳細については、ScalarDB Analytics with PostgreSQL チャートの [README](https://github.com/scalar-labs/helm-charts/blob/main/charts/scalardb-analytics-postgresql/README.md) を参照してください。 +このドキュメントでは、PostgreSQL チャートを使用した ScalarDB Analytics のカスタム値ファイルを作成する方法について説明します。パラメーターの詳細については、ScalarDB Analytics with PostgreSQL チャートの [README](https://github.com/scalar-labs/helm-charts/blob/main/charts/scalardb-analytics-postgresql/README.md) を参照してください。 ## 必要な構成 -このセクションでは、PostgreSQL で ScalarDB Analytics のカスタム値ファイルを設定するときに必要な構成について説明します。 +このセクションでは、ScalarDB Analytics with PostgreSQL のカスタム値ファイルを設定するときに必要な構成について説明します。 ### データベース構成 -PostgreSQL を使用した ScalarDB Analytics 経由でデータベースにアクセスするには、`database.properties` ファイルの構成に使用するのと同じ構文に従って、`scalardbAnalyticsPostgreSQL.databaseProperties` パラメータを設定する必要があります。 設定の詳細については、[ScalarDB Configurations](https://scalardb.scalar-labs.com/docs/latest/configurations/) を参照してください。 +ScalarDB Analytics with PostgreSQL 経由でデータベースにアクセスするには、`database.properties` ファイルの構成に使用するのと同じ構文に従って、`scalardbAnalyticsPostgreSQL.databaseProperties` パラメータを設定する必要があります。設定の詳細については、[ScalarDB Configurations](https://scalardb.scalar-labs.com/docs/latest/configurations/) を参照してください。 ```yaml scalardbAnalyticsPostgreSQL: @@ -30,7 +31,7 @@ scalardbAnalyticsPostgreSQL: ### データベース名前空間の構成 -PostgreSQL を使用した ScalarDB Analytics 経由で読み取りたいテーブルを含むすべてのデータベース名前空間に `schemaImporter.namespaces` を設定する必要があります。 +ScalarDB Analytics with PostgreSQL 経由で読み取りたいテーブルを含むすべてのデータベース名前空間に `schemaImporter.namespaces` を設定する必要があります。 ```yaml schemaImporter: @@ -42,13 +43,13 @@ schemaImporter: ## オプションの構成 -このセクションでは、PostgreSQL で ScalarDB Analytics のカスタム値ファイルを設定する場合のオプションの構成について説明します。 +このセクションでは、ScalarDB Analytics with PostgreSQL のカスタム値ファイルを設定する場合のオプションの構成について説明します。 ### リソース構成 (実稼働環境で推奨) -Kubernetes でリクエストと制限を使用してポッド リソースを制御するには、`scalardbAnalyticsPostgreSQL.resources` を使用できます。 +Kubernetes でリクエストと制限を使用してポッドリソースを制御するには、`scalardbAnalyticsPostgreSQL.resources` を使用できます。 -Kubernetes のリクエストと制限と同じ構文を使用して、リクエストと制限を構成できます。 Kubernetes のリクエストと制限の詳細については、[Resource Management for Pods and Containers](https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/)を参照してください。 +Kubernetes のリクエストと制限と同じ構文を使用して、リクエストと制限を構成できます。Kubernetes のリクエストと制限の詳細については、[Resource Management for Pods and Containers](https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/) を参照してください。 ```yaml scalardbAnalyticsPostgreSQL: @@ -63,11 +64,11 @@ scalardbAnalyticsPostgreSQL: ### シークレット構成 (運用環境で推奨) -環境変数を使用して `scalardbAnalyticsPostgreSQL.databaseProperties` で資格情報などのいくつかのプロパティを設定するには、`scalardbAnalyticsPostgreSQL.secretName` を使用していくつかの資格情報を含むシークレット リソースを指定します。 +環境変数を使用して `scalardbAnalyticsPostgreSQL.databaseProperties` で資格情報などのいくつかのプロパティを設定するには、`scalardbAnalyticsPostgreSQL.secretName` を使用していくつかの資格情報を含むシークレットリソースを指定します。 -たとえば、環境変数を使用してバックエンド データベースの資格情報 (`scalar.db.username` および `scalar.db.password`) を設定できるため、ポッドの安全性が高まります。 +たとえば、環境変数を使用してバックエンドデータベースの資格情報 (`scalar.db.username` および `scalar.db.password`) を設定できるため、ポッドの安全性が高まります。 -シークレットリソースの使用方法の詳細については、[シークレットリソースを使用して資格情報を環境変数としてプロパティファイルに渡す方法(./use-secret-for-credentials.mdx) を参照してください。 +シークレットリソースの使用方法の詳細については、[シークレットリソースを使用して資格情報を環境変数としてプロパティファイルに渡す方法(./use-secret-for-credentials.mdx)を参照してください。 ```yaml scalardbAnalyticsPostgreSQL: @@ -78,7 +79,7 @@ scalardbAnalyticsPostgreSQL: Kubernetes でアフィニティとアンチアフィニティを使用してポッドのデプロイメントを制御するには、`scalardbAnalyticsPostgreSQL.affinity` を使用できます。 -Kubernetes のアフィニティとアンチアフィニティと同じ構文を使用して、アフィニティとアンチアフィニティを構成できます。 Kubernetes でのアフィニティの構成の詳細については、[Assigning Pods to Nodes](https://kubernetes.io/docs/concepts/scheduling-eviction/assign-pod-node/) を参照してください。 +Kubernetes のアフィニティとアンチアフィニティと同じ構文を使用して、アフィニティとアンチアフィニティを構成できます。Kubernetes でのアフィニティの構成の詳細については、[Assigning Pods to Nodes](https://kubernetes.io/docs/concepts/scheduling-eviction/assign-pod-node/) を参照してください。 ```yaml scalardbAnalyticsPostgreSQL: @@ -102,7 +103,7 @@ scalardbAnalyticsPostgreSQL: PostgreSQL ポッドを使用して ScalarDB Analytics の SecurityContext と PodSecurityContext を設定するには、`scalardbAnalyticsPostgreSQL.securityContext`、`scalardbAnalyticsPostgreSQL.podSecurityContext`、および `schemaImporter.securityContext` を使用できます。 -Kubernetes の SecurityContext および PodSecurityContext と同じ構文を使用して、SecurityContext および PodSecurityContext を構成できます。 Kubernetes の SecurityContext および PodSecurityContext 構成の詳細については、[Configure a Security Context for a Pod or Container](https://kubernetes.io/docs/tasks/configure-pod-container/security-context/) を参照してください。 +Kubernetes の SecurityContext および PodSecurityContext と同じ構文を使用して、SecurityContext および PodSecurityContext を構成できます。Kubernetes の SecurityContext および PodSecurityContext 構成の詳細については、[Configure a Security Context for a Pod or Container](https://kubernetes.io/docs/tasks/configure-pod-container/security-context/) を参照してください。 ```yaml scalardbAnalyticsPostgreSQL: @@ -129,7 +130,7 @@ schemaImporter: ### 画像構成 (デフォルト値を推奨) -イメージ リポジトリを変更する場合は、`scalardbAnalyticsPostgreSQL.image.repository` と `schemaImporter.image.repository` を使用して、プルする ScalarDB Analytics with PostgreSQL および Schema Importer イメージのコンテナ リポジトリ情報を指定できます。 +イメージリポジトリを変更する場合は、`scalardbAnalyticsPostgreSQL.image.repository` と `schemaImporter.image.repository` を使用して、プルする ScalarDB Analytics with PostgreSQL および Schema Importer イメージのコンテナリポジトリ情報を指定できます。 ```yaml scalardbAnalyticsPostgreSQL: @@ -150,9 +151,9 @@ scalardbAnalyticsPostgreSQL: replicaCount: 3 ``` -### PostgreSQL database name configuration (optional based on your environment) +### PostgreSQL データベース名の構成 (環境に応じてオプション) -You can specify the database name that you create in PostgreSQL. Schema Importer creates some objects, such as a view of ScalarDB Analytics with PostgreSQL, in this database. +PostgreSQL で作成するデータベース名を指定できます。Schema Importer は、ScalarDB Analytics with PostgreSQL のビューなど、いくつかのオブジェクトをこのデータベースに作成します。 ```yaml scalardbAnalyticsPostgreSQL: @@ -172,7 +173,7 @@ scalardbAnalyticsPostgreSQL: :::note -PostgreSQL で ScalarDB Analytics をデプロイする前に、この名前 (デフォルトでは `scalardb-analytics-postgresql-superuser-password`) でシークレット リソースを作成する必要があります。 詳細については、[シークレットリソースを準備する](how-to-deploy-scalardb-analytics-postgresql.mdx#シークレットリソースを準備する) を参照してください。 +ScalarDB Analytics with PostgreSQL をデプロイする前に、この名前 (デフォルトでは `scalardb-analytics-postgresql-superuser-password`) でシークレットリソースを作成する必要があります。詳細については、[シークレットリソースを準備する](how-to-deploy-scalardb-analytics-postgresql.mdx#シークレットリソースを準備する)を参照してください。 ::: @@ -180,7 +181,7 @@ PostgreSQL で ScalarDB Analytics をデプロイする前に、この名前 ( Kubernetes でテイントと許容を使用してポッドのデプロイメントを制御したい場合は、`scalardbAnalyticsPostgreSQL.tolerations` を使用できます。 -Kubernetes の許容と同じ構文を使用して、テイントと許容を構成できます。 Kubernetes での許容設定の詳細については、Kubernetes の公式ドキュメント [Taints and Tolerations](https://kubernetes.io/docs/concepts/scheduling-eviction/taint-and-toleration/) を参照してください。 +Kubernetes の許容と同じ構文を使用して、テイントと許容を構成できます。Kubernetes での許容設定の詳細については、Kubernetes の公式ドキュメント [Taints and Tolerations](https://kubernetes.io/docs/concepts/scheduling-eviction/taint-and-toleration/) を参照してください。 ```yaml scalardbAnalyticsPostgreSQL: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-scalardb-cluster.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-scalardb-cluster.mdx index c8fafa8b..37cc07f1 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-scalardb-cluster.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-scalardb-cluster.mdx @@ -2,17 +2,18 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # ScalarDB Cluster のカスタム値ファイルを構成する -このドキュメントでは、ScalarDB Cluster チャートのカスタム値ファイルを作成する方法について説明します。 パラメータの詳細については、ScalarDB Cluster チャートの [README](https://github.com/scalar-labs/helm-charts/blob/main/charts/scalardb-cluster/README.md) を参照してください。 +このドキュメントでは、ScalarDB Cluster チャートのカスタム値ファイルを作成する方法について説明します。パラメータの詳細については、ScalarDB Cluster チャートの [README](https://github.com/scalar-labs/helm-charts/blob/main/charts/scalardb-cluster/README.md) を参照してください。 ## 必要な構成 ### 画像構成 -`scalardbCluster.image.repository`を設定する必要があります。 コンテナー リポジトリからイメージをプルできるように、必ず ScalarDB Cluster コンテナー イメージを指定してください。 +`scalardbCluster.image.repository`を設定する必要があります。コンテナーリポジトリからイメージをプルできるように、必ず ScalarDB Cluster コンテナーイメージを指定してください。 ```yaml scalardbCluster: @@ -22,7 +23,7 @@ scalardbCluster: ### データベース構成 -`scalardbCluster.scalardbClusterNodeProperties` を設定する必要があります。 このパラメータには `scalardb-cluster-node.properties` を設定してください。 ScalarDB Cluster の構成の詳細については、[ScalarDB Cluster Configurations](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/scalardb-cluster-configurations/) を参照してください。 +`scalardbCluster.scalardbClusterNodeProperties` を設定する必要があります。このパラメータには `scalardb-cluster-node.properties` を設定してください。ScalarDB Cluster の構成の詳細については、[ScalarDB Cluster Configurations](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/scalardb-cluster-configurations/) を参照してください。 ```yaml scalardbCluster: @@ -36,7 +37,7 @@ scalardbCluster: scalar.db.storage=cassandra ``` -Scalar Helm Chart を使用して Kubernetes 環境に ScalarDB Cluster をデプロイする場合は、次の 3 つのプロパティを常に設定する必要があることに注意してください。 これらのプロパティは固定値です。 プロパティは個別の環境に依存しないため、以下の値をコピーして `scalardbCluster.scalardbClusterNodeProperties` に貼り付けることで同じ値を設定できます。 +Scalar Helm Chart を使用して Kubernetes 環境に ScalarDB Cluster をデプロイする場合は、次の3つのプロパティを常に設定する必要があることに注意してください。これらのプロパティは固定値です。プロパティは個別の環境に依存しないため、以下の値をコピーして `scalardbCluster.scalardbClusterNodeProperties` に貼り付けることで同じ値を設定できます。 ```yaml scalardbCluster: @@ -50,11 +51,11 @@ scalardbCluster: ### リソース構成 (実稼働環境で推奨) -Kubernetes でリクエストと制限を使用してポッド リソースを制御するには、`scalardbCluster.resources` を使用できます。 +Kubernetes でリクエストと制限を使用してポッドリソースを制御するには、`scalardbCluster.resources` を使用できます。 -商用ライセンスの場合、Scalar 製品の各ポッドのリソースは 2vCPU / 4GB メモリに制限されることに注意してください。 また、AWS Marketplace が提供する従量課金制のコンテナを使用する場合、`resources.limits` の 2vCPU / 4GB メモリ構成を超えるコンテナを実行することはできません。 このリソース制限を超えると、ポッドは自動的に停止します。 +商用ライセンスの場合、Scalar 製品の各ポッドのリソースは 2vCPU / 4GB メモリに制限されることに注意してください。また、AWS Marketplace が提供する従量課金制のコンテナを使用する場合、`resources.limits` の 2vCPU / 4GB メモリ構成を超えるコンテナを実行することはできません。このリソース制限を超えると、ポッドは自動的に停止します。 -Kubernetes のリクエストと制限と同じ構文を使用して、リクエストと制限を構成できます。 Kubernetes のリクエストと制限の詳細については、[Resource Management for Pods and Containers](https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/) を参照してください。 +Kubernetes のリクエストと制限と同じ構文を使用して、リクエストと制限を構成できます。Kubernetes のリクエストと制限の詳細については、[Resource Management for Pods and Containers](https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/) を参照してください。 ```yaml scalardbCluster: @@ -71,9 +72,9 @@ scalardbCluster: 環境変数を使用して `scalardbCluster.scalardbClusterNodeProperties` 内の一部のプロパティ (資格情報など) を設定するには、`scalardbCluster.secretName` を使用して、いくつかの資格情報を含む Secret リソースを指定します。 -たとえば、環境変数を使用してバックエンド データベースの資格情報 (`scalar.db.username` および `scalar.db.password`) を設定できるため、ポッドの安全性が高まります。 +たとえば、環境変数を使用してバックエンドデータベースの資格情報 (`scalar.db.username` および `scalar.db.password`) を設定できるため、ポッドの安全性が高まります。 -Secret リソースの使用方法の詳細については、[Secret リソースを使用して資格情報を環境変数としてプロパティ ファイルに渡す方法](use-secret-for-credentials.mdx) を参照してください。 +Secret リソースの使用方法の詳細については、[Secret リソースを使用して資格情報を環境変数としてプロパティファイルに渡す方法](use-secret-for-credentials.mdx)を参照してください。 ```yaml scalardbCluster: @@ -84,7 +85,7 @@ scalardbCluster: Kubernetes でアフィニティとアンチアフィニティを使用してポッドのデプロイメントを制御するには、`scalardbCluster.affinity` を使用できます。 -Kubernetes のアフィニティとアンチアフィニティと同じ構文を使用して、アフィニティとアンチアフィニティを構成できます。 Kubernetes でのアフィニティの構成の詳細については、[Assigning Pods to Nodes](https://kubernetes.io/docs/concepts/scheduling-eviction/assign-pod-node/) を参照してください。 +Kubernetes のアフィニティとアンチアフィニティと同じ構文を使用して、アフィニティとアンチアフィニティを構成できます。Kubernetes でのアフィニティの構成の詳細については、[Assigning Pods to Nodes](https://kubernetes.io/docs/concepts/scheduling-eviction/assign-pod-node/) を参照してください。 ```yaml scalardbCluster: @@ -108,7 +109,7 @@ scalardbCluster: ### Prometheus および Grafana 構成 (実稼働環境で推奨) -[kube-prometheus-stack](https://github.com/prometheus-community/helm-charts/tree/main/charts/kube-prometheus-stack) を使用して ScalarDB Cluster ポッドを監視するには、`scalardbCluster.grafanaDashboard.enabled`、`scalardbCluster.serviceMonitor.enabled`、`scalardbCluster.prometheusRule.enabled` を `true` に設定します。 これらの構成を `true` に設定すると、チャートは必要なリソースをデプロイし、kube-prometheus-stack が自動的に監視を開始します。 +[kube-prometheus-stack](https://github.com/prometheus-community/helm-charts/tree/main/charts/kube-prometheus-stack) を使用して ScalarDB Cluster ポッドを監視するには、`scalardbCluster.grafanaDashboard.enabled`、`scalardbCluster.serviceMonitor.enabled`、`scalardbCluster.prometheusRule.enabled` を `true` に設定します。これらの構成を `true` に設定すると、チャートは必要なリソースをデプロイし、kube-prometheus-stack が自動的に監視を開始します。 ```yaml scalardbCluster: @@ -128,7 +129,7 @@ scalardbCluster: ScalarDB Cluster ポッドの SecurityContext と PodSecurityContext を設定するには、`scalardbCluster.securityContext` と `scalardbCluster.podSecurityContext` を使用できます。 -Kubernetes の SecurityContext および PodSecurityContext と同じ構文を使用して、SecurityContext および PodSecurityContext を構成できます。 Kubernetes の SecurityContext および PodSecurityContext 構成の詳細については、[Configure a Security Context for a Pod or Container](https://kubernetes.io/docs/tasks/configure-pod-container/security-context/) を参照してください。 +Kubernetes の SecurityContext および PodSecurityContext と同じ構文を使用して、SecurityContext および PodSecurityContext を構成できます。Kubernetes の SecurityContext および PodSecurityContext 構成の詳細については、[Configure a Security Context for a Pod or Container](https://kubernetes.io/docs/tasks/configure-pod-container/security-context/) を参照してください。 ```yaml scalardbCluster: @@ -150,7 +151,7 @@ TLS は、次の通信で有効にできます: - ScalarDB Cluster ノードとクライアント間の通信。 - すべての ScalarDB Cluster ノード間の通信 (クラスターの内部通信)。 -さらに、証明書管理にはいくつかのオプションがあります。詳細については、[Envoy の TLS 構成](./configure-custom-values-envoy.mdx#tls-構成-環境に応じてオプション) を参照してください。 +さらに、証明書管理にはいくつかのオプションがあります。詳細については、[Envoy の TLS 構成](./configure-custom-values-envoy.mdx#tls-構成-環境に応じてオプション)を参照してください。 セキュリティ要件に基づいて、どの方法を使用するかを検討する必要があります。各方法のガイダンスと関連ドキュメントについては、次の意思決定ツリーを参照してください。 @@ -187,7 +188,8 @@ scalardbCluster: tls: enabled: true ``` -##### 秘密鍵と証明書ファイルを使用する + +##### シークレットキーと証明書ファイルを使用する 次の構成を使用して、秘密鍵と証明書ファイルを設定できます。 @@ -208,7 +210,7 @@ kubectl create secret generic scalardb-cluster-tls-cert --from-file=tls.crt=/ -n ``` -秘密鍵と証明書ファイルを準備する方法の詳細については、[Scalar 製品の秘密鍵と証明書ファイルを作成する方法](../scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx) を参照してください。 +秘密鍵と証明書ファイルを準備する方法の詳細については、[Scalar 製品の秘密鍵と証明書ファイルを作成する方法](../scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx)を参照してください。 ##### cert-manager で信頼できる CA を使用して秘密鍵と証明書ファイルを管理する @@ -216,8 +218,8 @@ kubectl create secret generic scalardb-cluster-tls-key --from-file=tls.key=/:80/graphql` を使用して graphql クエリを実行できます。 +graphql クエリを実行するパスを変更したい場合は、`scalarDbGraphQlConfiguration.path` を使用できます。デフォルトでは、`http://:80/graphql` を使用して graphql クエリを実行できます。 -`scalarDbGraphQlConfiguration.graphiql`を使用して[GraphiQL](https://github.com/graphql/graphiql/tree/main/packages/graphiql) を有効/無効にすることもできます。 +`scalarDbGraphQlConfiguration.graphiql` を使用して [GraphiQL](https://github.com/graphql/graphiql/tree/main/packages/graphiql) を有効/無効にすることもできます。 ```yaml scalarDbGraphQlConfiguration: @@ -183,7 +184,7 @@ scalarDbGraphQlConfiguration: クライアントとイングレスの間で TLS を使用したい場合は、`ingress.tls` を使用できます。 -秘密キーと証明書ファイルを含むシークレット リソースを作成する必要があります。 Ingress の Secret リソースの詳細については、公式ドキュメント [Ingress - TLS](https://kubernetes.io/docs/concepts/services-networking/ingress/#tls) を参照してください。 +秘密鍵と証明書ファイルを含むシークレットリソースを作成する必要があります。Ingress の Secret リソースの詳細については、公式ドキュメント [Ingress - TLS](https://kubernetes.io/docs/concepts/services-networking/ingress/#tls) を参照してください。 ```yaml ingress: @@ -216,7 +217,7 @@ scalarDbGraphQlConfiguration: Kubernetes のテイントと許容範囲を使用してポッドのデプロイメントを制御したい場合は、`tolerations` を使用できます。 -Kubernetes の許容と同じ構文を使用して、テイントと許容を構成できます。 Kubernetes での許容設定の詳細については、Kubernetes の公式ドキュメント [Taints and Tolerations](https://kubernetes.io/docs/concepts/scheduling-eviction/taint-and-toleration/) を参照してください。 +Kubernetes の許容と同じ構文を使用して、テイントと許容を構成できます。Kubernetes での許容設定の詳細については、Kubernetes の公式ドキュメント [Taints and Tolerations](https://kubernetes.io/docs/concepts/scheduling-eviction/taint-and-toleration/) を参照してください。 ```yaml tolerations: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-scalardb.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-scalardb.mdx index 9b8f87c9..139f7bfe 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-scalardb.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-scalardb.mdx @@ -3,6 +3,7 @@ tags: - Enterprise Standard - Enterprise Premium - Deprecated +displayed_sidebar: docsJapanese --- # [非推奨] ScalarDB Server のカスタム値ファイルを構成する @@ -13,33 +14,33 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; :::note -ScalarDB Server は非推奨になりました。 代わりに [ScalarDB Cluster](configure-custom-values-scalardb-cluster.mdx) を使用してください。 +ScalarDB Server は非推奨になりました。代わりに [ScalarDB Cluster](configure-custom-values-scalardb-cluster.mdx) を使用してください。 ::: -このドキュメントでは、ScalarDB Server チャートのカスタム値ファイルを作成する方法について説明します。 パラメータの詳細を知りたい場合は、ScalarDB Server チャートの [README](https://github.com/scalar-labs/helm-charts/blob/main/charts/scalardb/README.md) を参照してください。 +このドキュメントでは、ScalarDB Server チャートのカスタム値ファイルを作成する方法について説明します。パラメータの詳細を知りたい場合は、ScalarDB Server チャートの [README](https://github.com/scalar-labs/helm-charts/blob/main/charts/scalardb/README.md) を参照してください。 ## 必要な構成 ### Scalar Envoy 構成 -ScalarDB Server のカスタム値ファイルに Scalar Envoy 構成を設定する必要があります。 これは、ScalarDB Server を Kubernetes 環境にデプロイする場合、クライアント リクエストが gRPC リクエストのロード バランサーとして Scalar Envoy 経由で ScalarDB Server に送信されるためです。 +ScalarDB Server のカスタム値ファイルに Scalar Envoy 構成を設定する必要があります。これは、ScalarDB Server を Kubernetes 環境にデプロイする場合、クライアントリクエストが gRPC リクエストのロードバランサーとして Scalar Envoy 経由で ScalarDB Server に送信されるためです。 -Scalar Envoy 構成の詳細については、ドキュメント [Scalar Envoy のカスタム値ファイルの構成](configure-custom-values-envoy.mdx) を参照してください。 +Scalar Envoy 構成の詳細については、ドキュメント [Scalar Envoy のカスタム値ファイルの構成](configure-custom-values-envoy.mdx)を参照してください。 ```yaml envoy: - configurationsForScalarEnvoy: + configurationsForScalarEnvoy: ... scalardb: - configurationsForScalarDB: + configurationsForScalarDB: ... ``` ### 画像構成 -`scalardb.image.repository`を設定する必要があります。 コンテナー リポジトリからイメージをプルできるように、必ず ScalarDB Server コンテナー イメージを指定してください。 +`scalardb.image.repository`を設定する必要があります。コンテナーリポジトリからイメージをプルできるように、必ず ScalarDB Server コンテナーイメージを指定してください。 ```yaml scalardb: @@ -54,7 +55,7 @@ AWS または Azure を使用している場合、詳細については次のド ### データベース構成 -`scalardb.databaseProperties` を設定する必要があります。 `database.properties` をこのパラメータに設定してください。 ScalarDB Server の設定の詳細については、[Configure ScalarDB Server](https://scalardb.scalar-labs.com/docs/latest/scalardb-server.mdx#configure-scalardb-server) を参照してください。 +`scalardb.databaseProperties` を設定する必要があります。`database.properties` をこのパラメータに設定してください。ScalarDB Server の設定の詳細については、[Configure ScalarDB Server](https://scalardb.scalar-labs.com/docs/latest/scalardb-server.mdx#configure-scalardb-server) を参照してください。 ```yaml scalardb: @@ -77,11 +78,11 @@ scalardb: ### リソース構成 (本番環境で推奨) -Kubernetes のリクエストと制限を使用してポッド リソースを制御したい場合は、`scalardb.resources` を使用できます。 +Kubernetes のリクエストと制限を使用してポッドリソースを制御したい場合は、`scalardb.resources` を使用できます。 -商用ライセンスの観点から、Scalar 製品の 1 つのポッドのリソースは 2vCPU / 4GB メモリに制限されていることに注意してください。 また、AWS Marketplace から提供される従量課金制のコンテナを取得する場合、`resources.limits` で 2vCPU / 4GB を超えるメモリ構成でそれらのコンテナを実行することはできません。 この制限を超えると、ポッドは自動的に停止されます。 +商用ライセンスの観点から、Scalar 製品の1つのポッドのリソースは 2vCPU / 4GB メモリに制限されていることに注意してください。また、AWS Marketplace から提供される従量課金制のコンテナを取得する場合、`resources.limits` で 2vCPU / 4GB を超えるメモリ構成でそれらのコンテナを実行することはできません。この制限を超えると、ポッドは自動的に停止されます。 -これらは、Kubernetes のリクエストと制限と同じ構文を使用して構成できます。 そのため、Kubernetes の要求と制限の詳細については、公式ドキュメント [Pod およびコンテナーのリソース管理](https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/) を参照してください。 +これらは、Kubernetes のリクエストと制限と同じ構文を使用して構成できます。そのため、Kubernetes の要求と制限の詳細については、公式ドキュメント [Pod およびコンテナーのリソース管理](https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/)を参照してください。 ```yaml scalardb: @@ -98,9 +99,9 @@ scalardb: 環境変数を使用して `scalardb.databaseProperties` 内の一部のプロパティ (資格情報など) を設定したい場合は、`scalardb.secretName` を使用して、いくつかの資格情報を含む Secret リソースを指定できます。 -たとえば、環境変数を使用してバックエンド データベースの資格情報 (`scalar.db.username` および `scalar.db.password`) を設定でき、これによりポッドの安全性が高まります。 +たとえば、環境変数を使用してバックエンドデータベースの資格情報 (`scalar.db.username` および `scalar.db.password`) を設定でき、これによりポッドの安全性が高まります。 -Secret リソースの使用方法の詳細については、ドキュメント [Secret リソースを使用して資格情報を環境変数としてプロパティ ファイルに渡す方法](use-secret-for-credentials.mdx) を参照してください。 +Secret リソースの使用方法の詳細については、ドキュメント [Secret リソースを使用して資格情報を環境変数としてプロパティファイルに渡す方法](use-secret-for-credentials.mdx)を参照してください。 ```yaml scalardb: @@ -111,7 +112,7 @@ scalardb: Kubernetes のアフィニティと反アフィニティを使用してポッドのデプロイメントを制御したい場合は、`scalardb.affinity` を使用できます。 -Kubernetes のアフィニティと同じ構文を使用して構成できます。 そのため、Kubernetes のアフィニティ設定の詳細については、公式ドキュメント [Assigning Pods to Nodes](https://kubernetes.io/docs/concepts/scheduling-eviction/assign-pod-node/) を参照してください。 +Kubernetes のアフィニティと同じ構文を使用して構成できます。そのため、Kubernetes のアフィニティ設定の詳細については、公式ドキュメント [Assigning Pods to Nodes](https://kubernetes.io/docs/concepts/scheduling-eviction/assign-pod-node/) を参照してください。 ```yaml scalardb: @@ -135,7 +136,7 @@ scalardb: ### Prometheus/Grafana 構成 (運用環境で推奨) -[kube-prometheus-stack](https://github.com/prometheus-community/helm-charts/tree/main/charts/kube-prometheus-stack) を使用して ScalarDB Server ポッドを監視する場合は、`scalardb.grafanaDashboard.enabled`、`scalardb.serviceMonitor` を使用して、kube-prometheus-stack の ConfigMap、ServiceMonitor、および PrometheusRule リソースをデプロイできます。 `enabled`および `scalardb.prometheusRule.enabled`。 +[kube-prometheus-stack](https://github.com/prometheus-community/helm-charts/tree/main/charts/kube-prometheus-stack) を使用して ScalarDB Server ポッドを監視する場合は、`scalardb.grafanaDashboard.enabled`、`scalardb.serviceMonitor` を使用して、kube-prometheus-stack の ConfigMap、ServiceMonitor、および PrometheusRule リソースをデプロイできます。`enabled`および `scalardb.prometheusRule.enabled`。 ```yaml scalardb: @@ -155,7 +156,7 @@ scalardb: ScalarDB Server ポッドに SecurityContext と PodSecurityContext を設定したい場合は、`scalardb.securityContext` と `scalardb.podSecurityContext` を使用できます。 -KubernetesのSecurityContextやPodSecurityContextと同じ構文を使用して設定できます。 したがって、Kubernetes の SecurityContext および PodSecurityContext 構成の詳細については、公式ドキュメント [Configure a Security Context for a Pod or Container](https://kubernetes.io/docs/tasks/configure-pod-container/security-context/) を参照してください。 +KubernetesのSecurityContextやPodSecurityContextと同じ構文を使用して設定できます。したがって、Kubernetes の SecurityContext および PodSecurityContext 構成の詳細については、公式ドキュメント [Configure a Security Context for a Pod or Container](https://kubernetes.io/docs/tasks/configure-pod-container/security-context/) を参照してください。 ```yaml scalardb: @@ -193,7 +194,7 @@ scalardb: Kubernetes のテイントと許容を使用してポッドのデプロイメントを制御したい場合は、`scalardb.tolerations` を使用できます。 -Kubernetes の許容と同じ構文を使用して、テイントと許容を構成できます。 Kubernetes での許容設定の詳細については、Kubernetes の公式ドキュメント [Taints and Tolerations](https://kubernetes.io/docs/concepts/scheduling-eviction/taint-and-toleration/) を参照してください。 +Kubernetes の許容と同じ構文を使用して、テイントと許容を構成できます。Kubernetes での許容設定の詳細については、Kubernetes の公式ドキュメント [Taints and Tolerations](https://kubernetes.io/docs/concepts/scheduling-eviction/taint-and-toleration/) を参照してください。 ```yaml scalardb: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-scalardl-auditor.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-scalardl-auditor.mdx index 71e19669..33d42eee 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-scalardl-auditor.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-scalardl-auditor.mdx @@ -1,31 +1,32 @@ --- +displayed_sidebar: docsJapanese --- # ScalarDL Auditor のカスタム値ファイルを構成する -このドキュメントでは、ScalarDL Auditor チャートのカスタム値ファイルを作成する方法について説明します。 パラメータの詳細を知りたい場合は、ScalarDL Auditor チャートの [README](https://github.com/scalar-labs/helm-charts/blob/main/charts/scalardl-audit/README.md) を参照してください。 +このドキュメントでは、ScalarDL Auditor チャートのカスタム値ファイルを作成する方法について説明します。パラメータの詳細を知りたい場合は、ScalarDL Auditor チャートの [README](https://github.com/scalar-labs/helm-charts/blob/main/charts/scalardl-audit/README.md) を参照してください。 ## 必要な構成 ### Scalar Envoy 構成 -ScalarDL Auditor のカスタム値ファイルで Scalar Envoy 構成を設定する必要があります。 これは、ScalarDL Auditor を Kubernetes 環境にデプロイする場合、クライアント リクエストが gRPC リクエストのロード バランサーとして Scalar Envoy 経由で ScalarDL Auditor に送信されるためです。 +ScalarDL Auditor のカスタム値ファイルで Scalar Envoy 構成を設定する必要があります。これは、ScalarDL Auditor を Kubernetes 環境にデプロイする場合、クライアントリクエストが gRPC リクエストのロードバランサーとして Scalar Envoy 経由で ScalarDL Auditor に送信されるためです。 -Scalar Envoy 構成の詳細については、ドキュメント [Scalar Envoy のカスタム値ファイルの構成](configure-custom-values-envoy.mdx) を参照してください。 +Scalar Envoy 構成の詳細については、ドキュメント [Scalar Envoy のカスタム値ファイルの構成](configure-custom-values-envoy.mdx)を参照してください。 ```yaml envoy: - configurationsForScalarEnvoy: + configurationsForScalarEnvoy: ... auditor: - configurationsForScalarDLAuditor: + configurationsForScalarDLAuditor: ... ``` ### 画像構成 -`auditor.image.repository` を設定する必要があります。 コンテナー リポジトリからイメージをプルできるように、必ず ScalarDL Auditor コンテナー イメージを指定してください。 +`auditor.image.repository` を設定する必要があります。コンテナーリポジトリからイメージをプルできるように、必ず ScalarDL Auditor コンテナーイメージを指定してください。 ```yaml auditor: @@ -33,11 +34,11 @@ auditor: repository: ``` -Scalar 製品のコンテナリポジトリの詳細については、[Scalar 製品のコンテナ イメージを取得する方法](../scalar-kubernetes/HowToGetContainerImages.mdx) を参照してください。 +Scalar 製品のコンテナリポジトリの詳細については、[Scalar 製品のコンテナイメージを取得する方法](../scalar-kubernetes/HowToGetContainerImages.mdx)を参照してください。 ### Auditor / データベースの構成 -`auditor.auditorProperties` を設定する必要があります。 `auditor.properties` をこのパラメータに設定してください。 ScalarDL Auditor の設定の詳細については、[auditor.properties](https://github.com/scalar-labs/scalar/blob/master/auditor/conf/auditor.properties) を参照してください。 +`auditor.auditorProperties` を設定する必要があります。`auditor.properties` をこのパラメータに設定してください。ScalarDL Auditor の設定の詳細については、[auditor.properties](https://github.com/scalar-labs/scalar/blob/master/auditor/conf/auditor.properties) を参照してください。 ```yaml auditor: @@ -55,19 +56,19 @@ auditor: 秘密鍵ファイルを `scalar.dl.auditor.private_key_path` に設定し、証明書ファイルを `scalar.dl.auditor.cert_path` に設定する必要があります。 -秘密キー ファイルと証明書ファイルも ScalarDL Auditor ポッドにマウントする必要があります。 +秘密鍵ファイルと証明書ファイルも ScalarDL Auditor ポッドにマウントする必要があります。 -秘密キー ファイルと証明書ファイルをマウントする方法の詳細については、[ScalarDL Helm Charts のポッドにキーファイルと証明書ファイルをマウントする](mount-files-or-volumes-on-scalar-pods.mdx#scalardl-helm-charts-のポッドにキーファイルと証明書ファイルをマウントする) を参照してください。 +秘密鍵ファイルと証明書ファイルをマウントする方法の詳細については、[ScalarDL Helm Charts のポッドに秘密鍵ファイルと証明書ファイルをマウントする](mount-files-or-volumes-on-scalar-pods.mdx#scalardl-helm-charts-のポッドにキーファイルと証明書ファイルをマウントする)を参照してください。 ## オプションの構成 ### リソース構成 (本番環境で推奨) -Kubernetes のリクエストと制限を使用してポッド リソースを制御したい場合は、`auditor.resources` を使用できます。 +Kubernetes のリクエストと制限を使用してポッドリソースを制御したい場合は、`auditor.resources` を使用できます。 -商用ライセンスの観点から、Scalar 製品の 1 つのポッドのリソースは 2vCPU / 4GB メモリに制限されていることに注意してください。 また、AWS Marketplace から提供される従量課金制のコンテナを取得する場合、`resources.limits` で 2vCPU / 4GB を超えるメモリ構成でそれらのコンテナを実行することはできません。 この制限を超えると、ポッドは自動的に停止されます。 +商用ライセンスの観点から、Scalar 製品の1つのポッドのリソースは 2vCPU / 4GB メモリに制限されていることに注意してください。また、AWS Marketplace から提供される従量課金制のコンテナを取得する場合、`resources.limits` で 2vCPU / 4GB を超えるメモリ構成でそれらのコンテナを実行することはできません。この制限を超えると、ポッドは自動的に停止されます。 -これらは、Kubernetes のリクエストと制限と同じ構文を使用して構成できます。 そのため、Kubernetes の要求と制限の詳細については、公式ドキュメント [Resource Management for Pods and Containers](https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/) を参照してください。 +これらは、Kubernetes のリクエストと制限と同じ構文を使用して構成できます。そのため、Kubernetes の要求と制限の詳細については、公式ドキュメント [Resource Management for Pods and Containers](https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/) を参照してください。 ```yaml auditor: @@ -84,9 +85,9 @@ auditor: 環境変数を使用して `auditor.auditorProperties` 内の一部のプロパティ (資格情報など) を設定したい場合は、`auditor.secretName` を使用して、いくつかの資格情報を含む Secret リソースを指定できます。 -たとえば、環境変数を使用してバックエンド データベースの資格情報 (`scalar.db.username` および `scalar.db.password`) を設定でき、これによりポッドの安全性が高まります。 +たとえば、環境変数を使用してバックエンドデータベースの資格情報 (`scalar.db.username` および `scalar.db.password`) を設定でき、これによりポッドの安全性が高まります。 -Secret リソースの使用方法の詳細については、ドキュメント [Secret リソースを使用して資格情報を環境変数としてプロパティ ファイルに渡す方法](use-secret-for-credentials.mdx) を参照してください。 +Secret リソースの使用方法の詳細については、ドキュメント [Secret リソースを使用して資格情報を環境変数としてプロパティファイルに渡す方法](use-secret-for-credentials.mdx)を参照してください。 ```yaml auditor: @@ -97,7 +98,7 @@ auditor: Kubernetes のアフィニティと反アフィニティを使用してポッドのデプロイメントを制御したい場合は、`auditor.affinity` を使用できます。 -Kubernetes のアフィニティと同じ構文を使用して構成できます。 そのため、Kubernetes のアフィニティ設定の詳細については、公式ドキュメント [Assigning Pods to Nodes](https://kubernetes.io/docs/concepts/scheduling-eviction/assign-pod-node/) を参照してください。 +Kubernetes のアフィニティと同じ構文を使用して構成できます。そのため、Kubernetes のアフィニティ設定の詳細については、公式ドキュメント [Assigning Pods to Nodes](https://kubernetes.io/docs/concepts/scheduling-eviction/assign-pod-node/) を参照してください。 ```yaml auditor: @@ -121,7 +122,7 @@ auditor: ### Prometheus/Grafana 構成 (運用環境で推奨) -[kube-prometheus-stack](https://github.com/prometheus-community/helm-charts/tree/main/charts/kube-prometheus-stack) を使用して ScalarDL Auditor ポッドを監視する場合は、`auditor.grafanaDashboard.enabled`、`auditor.serviceMonitor` を使用して、kube-prometheus-stack の ConfigMap、ServiceMonitor、および PrometheusRule リソースをデプロイできます。 `enabled` および `auditor.prometheusRule.enabled`。 +[kube-prometheus-stack](https://github.com/prometheus-community/helm-charts/tree/main/charts/kube-prometheus-stack) を使用して ScalarDL Auditor ポッドを監視する場合は、`auditor.grafanaDashboard.enabled`、`auditor.serviceMonitor` を使用して、kube-prometheus-stack の ConfigMap、ServiceMonitor、および PrometheusRule リソースをデプロイできます。`enabled` および `auditor.prometheusRule.enabled`。 ```yaml auditor: @@ -141,7 +142,7 @@ auditor: ScalarDL Auditor ポッドに SecurityContext と PodSecurityContext を設定したい場合は、`auditor.securityContext` と `auditor.podSecurityContext` を使用できます。 -KubernetesのSecurityContextやPodSecurityContextと同じ構文を使用して設定できます。 したがって、Kubernetes の SecurityContext および PodSecurityContext 構成の詳細については、公式ドキュメント [Configure a Security Context for a Pod or Container](https://kubernetes.io/docs/tasks/configure-pod-container/security-context/) を参照してください。 +KubernetesのSecurityContextやPodSecurityContextと同じ構文を使用して設定できます。したがって、Kubernetes の SecurityContext および PodSecurityContext 構成の詳細については、公式ドキュメント [Configure a Security Context for a Pod or Container](https://kubernetes.io/docs/tasks/configure-pod-container/security-context/) を参照してください。 ```yaml auditor: @@ -163,7 +164,7 @@ TLS は、次の通信で有効にできます: - ScalarDL Auditor とクライアント間の通信。 - ScalarDL Ledger と ScalarDL Auditor 間の通信。 -さらに、証明書管理にはいくつかのオプションがあります。詳細については、[Envoy の TLS 構成](./configure-custom-values-envoy.mdx#tls-構成-環境に応じてオプション) を参照してください。 +さらに、証明書管理にはいくつかのオプションがあります。詳細については、[Envoy の TLS 構成](./configure-custom-values-envoy.mdx#tls-構成-環境に応じてオプション)を参照してください。 セキュリティ要件に基づいて、どの方法を使用するかを検討する必要があります。各方法のガイダンスと関連ドキュメントについては、次の意思決定ツリーを参照してください。 @@ -215,7 +216,7 @@ auditor: privateKeySecret: "scalardl-auditor-tls-key" ``` -この場合、次のように、山括弧内の内容を置き換えて、ScalarDL Ledger および ScalarDL Auditor の秘密キーと証明書ファイルを含むシークレットリソースを作成する必要があります。 +この場合、次のように、山括弧内の内容を置き換えて、ScalarDL Ledger および ScalarDL Auditor の秘密鍵と証明書ファイルを含むシークレットリソースを作成する必要があります。 ```console kubectl create secret generic scalardl-auditor-tls-ca --from-file=ca.crt=/ -n @@ -224,7 +225,7 @@ kubectl create secret generic scalardl-auditor-tls-key --from-file=tls.key=/ -n ``` -秘密鍵と証明書ファイルを準備する方法の詳細については、[Scalar 製品の秘密鍵と証明書ファイルを作成する方法](../scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx) を参照してください。 +秘密鍵と証明書ファイルを準備する方法の詳細については、[Scalar 製品の秘密鍵と証明書ファイルを作成する方法](../scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx)を参照してください。 ##### cert-manager で信頼できる CA を使用して秘密鍵と証明書ファイルを管理する @@ -232,8 +233,8 @@ kubectl create secret generic scalardl-auditor-tls-ca-for-ledger --from-file=ca. :::note -* cert-manager を使用する場合は、cert-manager をデプロイし、`Issuers` リソースを準備する必要があります。詳細については、cert-manager のドキュメント、[インストール](https://cert-manager.io/docs/installation/) および [発行者構成](https://cert-manager.io/docs/configuration/) を参照してください。 -* デフォルトでは、Scalar Helm Chart は Scalar 製品の証明書要件を満たす `Certificate` リソースを作成します。デフォルトの証明書構成が推奨されますが、カスタム証明書構成を使用する場合は、Scalar 製品の証明書要件を満たす必要があります。詳細については、[Scalar 製品の秘密キーと証明書ファイルを作成する方法](../scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx#certificate-requirements) を参照してください。 +* cert-manager を使用する場合は、cert-manager をデプロイし、`Issuers` リソースを準備する必要があります。詳細については、cert-manager のドキュメント、[インストール](https://cert-manager.io/docs/installation/)および[発行者構成](https://cert-manager.io/docs/configuration/)を参照してください。 +* デフォルトでは、Scalar Helm Chart は Scalar 製品の証明書要件を満たす `Certificate` リソースを作成します。デフォルトの証明書構成が推奨されますが、カスタム証明書構成を使用する場合は、Scalar 製品の証明書要件を満たす必要があります。詳細については、[Scalar 製品の秘密鍵と証明書ファイルを作成する方法](../scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx#certificate-requirements)を参照してください。 ::: @@ -253,12 +254,12 @@ auditor: ##### cert-manager で自己署名 CA を使用して秘密鍵と証明書ファイルを管理する -次の構成を使用して、cert-manager で秘密キーと自己署名証明書ファイルを管理できます。 +次の構成を使用して、cert-manager で秘密鍵と自己署名証明書ファイルを管理できます。 :::note -* cert-manager を使用する場合は、cert-manager をデプロイする必要があります。詳細については、cert-manager のドキュメント [インストール](https://cert-manager.io/docs/installation/) を参照してください。 -* デフォルトでは、Scalar Helm Chart は Scalar 製品の証明書要件を満たす `Certificate` リソースを作成します。デフォルトの証明書構成が推奨されますが、カスタム証明書構成を使用する場合は、Scalar 製品の証明書要件を満たす必要があります。詳細については、[Scalar 製品の秘密キーと証明書ファイルを作成する方法](../scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx#certificate-requirements) を参照してください。 +* cert-manager を使用する場合は、cert-manager をデプロイする必要があります。詳細については、cert-manager のドキュメント[インストール](https://cert-manager.io/docs/installation/)を参照してください。 +* デフォルトでは、Scalar Helm Chart は Scalar 製品の証明書要件を満たす `Certificate` リソースを作成します。デフォルトの証明書構成が推奨されますが、カスタム証明書構成を使用する場合は、Scalar 製品の証明書要件を満たす必要があります。詳細については、[Scalar 製品の秘密鍵と証明書ファイルを作成する方法](../scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx#certificate-requirements)を参照してください。 ::: @@ -308,7 +309,7 @@ kubectl create secret generic scalardl-auditor-tls-ca-for-ledger --from-file=ca. ##### TLS通信のカスタム権限を設定する -`auditor.tls.overrideAuthority` を使用して、TLS 通信のカスタム権限を設定できます。この値によって、実際に接続されているホストが変わることはありません。この値はテスト用ですが、DNS オーバーライドの代替としてテスト以外でも安全に使用できます。たとえば、`auditor.tls.certChainSecret` を使用して設定した証明書チェーン ファイルで提示されるホスト名を指定できます。このチャートでは、`startupProbe` と `livenessProbe` にこの値を使用しています。 +`auditor.tls.overrideAuthority` を使用して、TLS 通信のカスタム権限を設定できます。この値によって、実際に接続されているホストが変わることはありません。この値はテスト用ですが、DNS オーバーライドの代替としてテスト以外でも安全に使用できます。たとえば、`auditor.tls.certChainSecret` を使用して設定した証明書チェーンファイルで提示されるホスト名を指定できます。このチャートでは、`startupProbe` と `livenessProbe` にこの値を使用しています。 ### レプリカ構成 (環境に応じてオプション) @@ -333,7 +334,7 @@ auditor: Kubernetes のテイントと許容を使用してポッドのデプロイメントを制御したい場合は、`auditor.tolerations` を使用できます。 -Kubernetes の許容と同じ構文を使用して、テイントと許容を構成できます。 Kubernetes での許容設定の詳細については、Kubernetes の公式ドキュメント [Taints and Tolerations](https://kubernetes.io/docs/concepts/scheduling-eviction/taint-and-toleration/) を参照してください。 +Kubernetes の許容と同じ構文を使用して、テイントと許容を構成できます。Kubernetes での許容設定の詳細については、Kubernetes の公式ドキュメント [Taints and Tolerations](https://kubernetes.io/docs/concepts/scheduling-eviction/taint-and-toleration/) を参照してください。 ```yaml auditor: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-scalardl-ledger.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-scalardl-ledger.mdx index 79b0b6cc..482b59ae 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-scalardl-ledger.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-scalardl-ledger.mdx @@ -1,31 +1,32 @@ --- +displayed_sidebar: docsJapanese --- # ScalarDL Ledger のカスタム値ファイルを構成する -このドキュメントでは、ScalarDL Ledger チャートのカスタム値ファイルを作成する方法について説明します。 パラメータの詳細を知りたい場合は、ScalarDL Ledger chartの [README](https://github.com/scalar-labs/helm-charts/blob/main/charts/scalardl/README.md) を参照してください。 +このドキュメントでは、ScalarDL Ledger チャートのカスタム値ファイルを作成する方法について説明します。パラメータの詳細を知りたい場合は、ScalarDL Ledger chartの [README](https://github.com/scalar-labs/helm-charts/blob/main/charts/scalardl/README.md) を参照してください。 ## 必要な構成 ### Scalar Envoy 構成 -ScalarDL Ledger のカスタム値ファイルで Scalar Envoy 構成を設定する必要があります。 これは、ScalarDL Ledger を Kubernetes 環境にデプロイする場合、クライアント リクエストが gRPC リクエストのロード バランサーとして Scalar Envoy 経由で ScalarDL Ledger に送信されるためです。 +ScalarDL Ledger のカスタム値ファイルで Scalar Envoy 構成を設定する必要があります。これは、ScalarDL Ledger を Kubernetes 環境にデプロイする場合、クライアントリクエストが gRPC リクエストのロードバランサーとして Scalar Envoy 経由で ScalarDL Ledger に送信されるためです。 -Scalar Envoy 構成の詳細については、ドキュメント [Scalar Envoy のカスタム値ファイルの構成](configure-custom-values-envoy.mdx) を参照してください。 +Scalar Envoy 構成の詳細については、ドキュメント [Scalar Envoy のカスタム値ファイルの構成](configure-custom-values-envoy.mdx)を参照してください。 ```yaml envoy: - configurationsForScalarEnvoy: + configurationsForScalarEnvoy: ... ledger: - configurationsForScalarDLLedger: + configurationsForScalarDLLedger: ... ``` ### 画像構成 -`ledger.image.repository` を設定する必要があります。 コンテナ リポジトリからイメージをプルできるように、ScalarDL Ledger コンテナ イメージを必ず指定してください。 +`ledger.image.repository` を設定する必要があります。コンテナリポジトリからイメージをプルできるように、ScalarDL Ledger コンテナイメージを必ず指定してください。 ```yaml ledger: @@ -33,11 +34,11 @@ ledger: repository: ``` -Scalar 製品のコンテナリポジトリの詳細については、[Scalar 製品のコンテナ イメージを取得する方法](../scalar-kubernetes/HowToGetContainerImages.mdx) を参照してください。 +Scalar 製品のコンテナリポジトリの詳細については、[Scalar 製品のコンテナイメージを取得する方法](../scalar-kubernetes/HowToGetContainerImages.mdx)を参照してください。 ### Ledger/データベースの構成 -`ledger.ledgerProperties` を設定する必要があります。 `ledger.properties` をこのパラメータに設定してください。 ScalarDL Ledger の構成の詳細については、[ledger.properties](https://github.com/scalar-labs/scalar/blob/master/ledger/conf/ledger.properties) を参照してください。 +`ledger.ledgerProperties` を設定する必要があります。`ledger.properties` をこのパラメータに設定してください。ScalarDL Ledger の構成の詳細については、[ledger.properties](https://github.com/scalar-labs/scalar/blob/master/ledger/conf/ledger.properties) を参照してください。 ```yaml ledger: @@ -55,19 +56,19 @@ ledger: `scalar.dl.ledger.proof.enabled` を `true` に設定した場合 (この設定は ScalarDL Auditor を使用する場合に必要です)、秘密鍵ファイルを `scalar.dl.ledger.proof.private_key_path` に設定する必要があります。 -この場合、秘密キー ファイルを ScalarDL Ledger ポッドにマウントする必要があります。 +この場合、秘密鍵ファイルを ScalarDL Ledger ポッドにマウントする必要があります。 -秘密キー ファイルをマウントする方法の詳細については、[ScalarDL Helm Charts のポッドにキーファイルと証明書ファイルをマウントする](mount-files-or-volumes-on-scalar-pods.mdx#scalardl-helm-charts-のポッドにキーファイルと証明書ファイルをマウントする) を参照してください。 +秘密鍵ファイルをマウントする方法の詳細については、[ScalarDL Helm Charts のポッドに秘密鍵ファイルと証明書ファイルをマウントする](mount-files-or-volumes-on-scalar-pods.mdx#scalardl-helm-charts-のポッドにキーファイルと証明書ファイルをマウントする)を参照してください。 ## オプションの構成 ### リソース構成 (本番環境で推奨) -Kubernetes のリクエストと制限を使用してポッド リソースを制御したい場合は、`ledger.resources` を使用できます。 +Kubernetes のリクエストと制限を使用してポッドリソースを制御したい場合は、`ledger.resources` を使用できます。 -商用ライセンスの観点から、Scalar 製品の 1 つのポッドのリソースは 2vCPU / 4GB メモリに制限されていることに注意してください。 また、AWS Marketplace から提供される従量課金制のコンテナを取得する場合、`resources.limits` で 2vCPU / 4GB を超えるメモリ構成でそれらのコンテナを実行することはできません。 この制限を超えると、ポッドは自動的に停止されます。 +商用ライセンスの観点から、Scalar 製品の1つのポッドのリソースは 2vCPU / 4GB メモリに制限されていることに注意してください。また、AWS Marketplace から提供される従量課金制のコンテナを取得する場合、`resources.limits` で 2vCPU / 4GB を超えるメモリ構成でそれらのコンテナを実行することはできません。この制限を超えると、ポッドは自動的に停止されます。 -これらは、Kubernetes のリクエストと制限と同じ構文を使用して構成できます。 そのため、Kubernetes の要求と制限の詳細については、公式ドキュメント [Resource Management for Pods and Containers](https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/) を参照してください。 +これらは、Kubernetes のリクエストと制限と同じ構文を使用して構成できます。そのため、Kubernetes の要求と制限の詳細については、公式ドキュメント [Resource Management for Pods and Containers](https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/) を参照してください。 ```yaml ledger: @@ -84,9 +85,9 @@ ledger: 環境変数を使用して `ledger.ledgerProperties` 内の一部のプロパティ (資格情報など) を設定したい場合は、`ledger.secretName` を使用して、いくつかの資格情報を含む Secret リソースを指定できます。 -たとえば、環境変数を使用してバックエンド データベースの資格情報 (`scalar.db.username` および `scalar.db.password`) を設定でき、これによりポッドの安全性が高まります。 +たとえば、環境変数を使用してバックエンドデータベースの資格情報 (`scalar.db.username` および `scalar.db.password`) を設定でき、これによりポッドの安全性が高まります。 -Secret リソースの使用方法の詳細については、ドキュメント [Secret リソースを使用して資格情報を環境変数としてプロパティ ファイルに渡す方法](use-secret-for-credentials.mdx) を参照してください。 +Secret リソースの使用方法の詳細については、ドキュメント [Secret リソースを使用して資格情報を環境変数としてプロパティファイルに渡す方法](use-secret-for-credentials.mdx)を参照してください。 ```yaml ledger: @@ -97,7 +98,7 @@ ledger: Kubernetes のアフィニティと反アフィニティを使用してポッドのデプロイメントを制御したい場合は、`ledger.affinity` を使用できます。 -Kubernetes のアフィニティと同じ構文を使用して構成できます。 そのため、Kubernetes のアフィニティ設定の詳細については、公式ドキュメント [Assigning Pods to Nodes](https://kubernetes.io/docs/concepts/scheduling-eviction/assign-pod-node/) を参照してください。 +Kubernetes のアフィニティと同じ構文を使用して構成できます。そのため、Kubernetes のアフィニティ設定の詳細については、公式ドキュメント [Assigning Pods to Nodes](https://kubernetes.io/docs/concepts/scheduling-eviction/assign-pod-node/) を参照してください。 ```yaml ledger: @@ -121,7 +122,7 @@ ledger: ### Prometheus/Grafana 構成 (運用環境で推奨) -[kube-prometheus-stack](https://github.com/prometheus-community/helm-charts/tree/main/charts/kube-prometheus-stack) を使用して ScalarDL Ledger ポッドを監視する場合は、`ledger.grafanaDashboard.enabled`、`ledger.serviceMonitor` を使用して、kube-prometheus-stack の ConfigMap、ServiceMonitor、および PrometheusRule リソースをデプロイできます。 `enabled` および `ledger.prometheusRule.enabled`。 +[kube-prometheus-stack](https://github.com/prometheus-community/helm-charts/tree/main/charts/kube-prometheus-stack) を使用して ScalarDL Ledger ポッドを監視する場合は、`ledger.grafanaDashboard.enabled`、`ledger.serviceMonitor` を使用して、kube-prometheus-stack の ConfigMap、ServiceMonitor、および PrometheusRule リソースをデプロイできます。`enabled` および `ledger.prometheusRule.enabled`。 ```yaml ledger: @@ -141,7 +142,7 @@ ledger: ScalarDL Ledger ポッドに SecurityContext と PodSecurityContext を設定したい場合は、`ledger.securityContext` と `ledger.podSecurityContext` を使用できます。 -KubernetesのSecurityContextやPodSecurityContextと同じ構文を使用して設定できます。 したがって、Kubernetes の SecurityContext および PodSecurityContext 構成の詳細については、公式ドキュメント [Configure a Security Context for a Pod or Container](https://kubernetes.io/docs/tasks/configure-pod-container/security-context/) を参照してください。 +KubernetesのSecurityContextやPodSecurityContextと同じ構文を使用して設定できます。したがって、Kubernetes の SecurityContext および PodSecurityContext 構成の詳細については、公式ドキュメント [Configure a Security Context for a Pod or Container](https://kubernetes.io/docs/tasks/configure-pod-container/security-context/) を参照してください。 ```yaml ledger: @@ -214,7 +215,7 @@ ledger: privateKeySecret: "scalardl-ledger-tls-key" ``` -この場合、次のように山括弧内の内容を置き換えて、ScalarDL Ledger の秘密鍵と証明書ファイルを含む秘密リソースを作成する必要があります。 +この場合、次のように山括弧内の内容を置き換えて、ScalarDL Ledger の秘密鍵と証明書ファイルを含むシークレットリソースを作成する必要があります。 ```console kubectl create secret generic scalardl-ledger-tls-ca --from-file=ca.crt=/ -n @@ -222,16 +223,16 @@ kubectl create secret generic scalardl-ledger-tls-cert --from-file=tls.crt=/ -n ``` -秘密鍵と証明書ファイルを準備する方法の詳細については、[Scalar 製品の秘密鍵と証明書ファイルを作成する方法](../scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx) を参照してください。 +秘密鍵と証明書ファイルを準備する方法の詳細については、[Scalar 製品の秘密鍵と証明書ファイルを作成する方法](../scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx)を参照してください。 ##### cert-manager で信頼できる CA を使用して秘密鍵と証明書ファイルを管理する -次の構成を使用して、cert-manager で秘密キーと証明書を管理できます。 +次の構成を使用して、cert-manager で秘密鍵と証明書を管理できます。 :::note -* cert-manager を使用する場合は、cert-manager をデプロイし、`Issuers` リソースを準備する必要があります。詳細については、cert-manager のドキュメント、[インストール](https://cert-manager.io/docs/installation/) および [発行者構成](https://cert-manager.io/docs/configuration/) を参照してください。 -* デフォルトでは、Scalar Helm Chart は Scalar 製品の証明書要件を満たす `Certificate` リソースを作成します。デフォルトの証明書構成が推奨されますが、カスタム証明書構成を使用する場合は、Scalar 製品の証明書要件を満たす必要があります。詳細については、[Scalar 製品の秘密キーと証明書ファイルを作成する方法](../scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx#certificate-requirements) を参照してください。 +* cert-manager を使用する場合は、cert-manager をデプロイし、`Issuers` リソースを準備する必要があります。詳細については、cert-manager のドキュメント、[インストール](https://cert-manager.io/docs/installation/)および[発行者構成](https://cert-manager.io/docs/configuration/)を参照してください。 +* デフォルトでは、Scalar Helm Chart は Scalar 製品の証明書要件を満たす `Certificate` リソースを作成します。デフォルトの証明書構成が推奨されますが、カスタム証明書構成を使用する場合は、Scalar 製品の証明書要件を満たす必要があります。詳細については、[Scalar 製品の秘密鍵と証明書ファイルを作成する方法](../scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx#certificate-requirements)を参照してください。 ::: @@ -251,12 +252,12 @@ ledger: ##### cert-manager で自己署名 CA を使用して秘密鍵と証明書ファイルを管理する -次の構成を使用して、cert-manager で秘密キーと自己署名証明書を管理できます。 +次の構成を使用して、cert-manager で秘密鍵と自己署名証明書を管理できます。 :::note -* cert-manager を使用する場合は、cert-manager をデプロイする必要があります。詳細については、cert-manager のドキュメント [インストール](https://cert-manager.io/docs/installation/) を参照してください。 -* デフォルトでは、Scalar Helm Chart は Scalar 製品の証明書要件を満たす `Certificate` リソースを作成します。デフォルトの証明書構成が推奨されますが、カスタム証明書構成を使用する場合は、Scalar 製品の証明書要件を満たす必要があります。詳細については、[Scalar 製品の秘密キーと証明書ファイルを作成する方法](../scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx#certificate-requirements) を参照してください。 +* cert-manager を使用する場合は、cert-manager をデプロイする必要があります。詳細については、cert-manager のドキュメント[インストール](https://cert-manager.io/docs/installation/)を参照してください。 +* デフォルトでは、Scalar Helm Chart は Scalar 製品の証明書要件を満たす `Certificate` リソースを作成します。デフォルトの証明書構成が推奨されますが、カスタム証明書構成を使用する場合は、Scalar 製品の証明書要件を満たす必要があります。詳細については、[Scalar 製品の秘密鍵と証明書ファイルを作成する方法](../scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx#certificate-requirements)を参照してください。 ::: @@ -276,7 +277,7 @@ ledger: ##### TLS通信のカスタム権限を設定する -`ledger.tls.overrideAuthority` を使用して、TLS 通信のカスタム権限を設定できます。この値によって、実際に接続されているホストが変わることはありません。この値はテスト用ですが、DNS オーバーライドの代替としてテスト以外でも安全に使用できます。たとえば、`ledger.tls.certChainSecret` を使用して設定した証明書チェーン ファイルで提示されるホスト名を指定できます。このチャートでは、`startupProbe` と `livenessProbe` にこの値を使用しています。 +`ledger.tls.overrideAuthority` を使用して、TLS 通信のカスタム権限を設定できます。この値によって、実際に接続されているホストが変わることはありません。この値はテスト用ですが、DNS オーバーライドの代替としてテスト以外でも安全に使用できます。たとえば、`ledger.tls.certChainSecret` を使用して設定した証明書チェーンファイルで提示されるホスト名を指定できます。このチャートでは、`startupProbe` と `livenessProbe` にこの値を使用しています。 ```yaml ledger: @@ -308,7 +309,7 @@ ledger: Kubernetes のテイントと許容を使用してポッドのデプロイメントを制御したい場合は、`ledger.tolerations` を使用できます。 -Kubernetes の許容と同じ構文を使用して、テイントと許容を構成できます。 Kubernetes での許容設定の詳細については、Kubernetes の公式ドキュメント [Taints and Tolerations](https://kubernetes.io/docs/concepts/scheduling-eviction/taint-and-toleration/) を参照してください。 +Kubernetes の許容と同じ構文を使用して、テイントと許容を構成できます。Kubernetes での許容設定の詳細については、Kubernetes の公式ドキュメント [Taints and Tolerations](https://kubernetes.io/docs/concepts/scheduling-eviction/taint-and-toleration/) を参照してください。 ```yaml ledger: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-scalardl-schema-loader.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-scalardl-schema-loader.mdx index 262bcf93..9752c87e 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-scalardl-schema-loader.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/configure-custom-values-scalardl-schema-loader.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsJapanese --- # ScalarDL Schema Loader のカスタム値ファイルを構成する @@ -7,13 +8,13 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、ScalarDL Schema Loader チャートのカスタム値ファイルを作成する方法について説明します。 パラメータの詳細を知りたい場合は、ScalarDL Schema Loader チャートの [README](https://github.com/scalar-labs/helm-charts/blob/main/charts/schema-loading/README.md) を参照してください。 +このドキュメントでは、ScalarDL Schema Loader チャートのカスタム値ファイルを作成する方法について説明します。パラメータの詳細を知りたい場合は、ScalarDL Schema Loader チャートの [README](https://github.com/scalar-labs/helm-charts/blob/main/charts/schema-loading/README.md) を参照してください。 ## 必要な構成 ### データベース構成 -`schemaLoading.databaseProperties` を設定する必要があります。 バックエンド データベースにアクセスするには、`database.properties` をこのパラメータに設定してください。 ScalarDB のデータベース構成の詳細については、[Getting Started with ScalarDB](https://scalardb.scalar-labs.com/docs/latest/getting-started-with-scalardb) を参照してください。 +`schemaLoading.databaseProperties` を設定する必要があります。バックエンドデータベースにアクセスするには、`database.properties` をこのパラメータに設定してください。ScalarDB のデータベース構成の詳細については、[Getting Started with ScalarDB](https://scalardb.scalar-labs.com/docs/latest/getting-started-with-scalardb) を参照してください。 ```yaml schemaLoading: @@ -49,9 +50,9 @@ schemaLoading: 環境変数を使用して `schemaLoading.databaseProperties` 内の一部のプロパティ (資格情報など) を設定したい場合は、`schemaLoading.secretName` を使用して、いくつかの資格情報を含む Secret リソースを指定できます。 -たとえば、環境変数を使用してバックエンド データベースの資格情報 (`scalar.db.username` および `scalar.db.password`) を設定でき、これによりポッドの安全性が高まります。 +たとえば、環境変数を使用してバックエンドデータベースの資格情報 (`scalar.db.username` および `scalar.db.password`) を設定でき、これによりポッドの安全性が高まります。 -Secret リソースの使用方法の詳細については、ドキュメント [Secret リソースを使用して資格情報を環境変数としてプロパティ ファイルに渡す方法](use-secret-for-credentials.mdx) を参照してください。 +Secret リソースの使用方法の詳細については、ドキュメント [Secret リソースを使用して資格情報を環境変数としてプロパティファイルに渡す方法](use-secret-for-credentials.mdx)を参照してください。 ```yaml schemaLoading: @@ -60,7 +61,7 @@ schemaLoading: ### 画像構成 (デフォルト値を推奨) -イメージ リポジトリを変更する場合は、`schemaLoading.image.repository` を使用して、プルする ScalarDL Schema Loader コンテナ イメージのコンテナ リポジトリ情報を指定できます。 +イメージリポジトリを変更する場合は、`schemaLoading.image.repository` を使用して、プルする ScalarDL Schema Loader コンテナイメージのコンテナリポジトリ情報を指定できます。 ```yaml schemaLoading: @@ -70,7 +71,7 @@ schemaLoading: ### フラグ設定 (環境に応じてオプション) -複数のフラグを配列として指定できます。 フラグの詳細については、ドキュメント [ScalarDB Schema Loader](https://scalardb.scalar-labs.com/docs/latest/schema-loader) を参照してください。 +複数のフラグを配列として指定できます。フラグの詳細については、ドキュメント [ScalarDB Schema Loader](https://scalardb.scalar-labs.com/docs/latest/schema-loader) を参照してください。 ```yaml schemaLoading: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-logging.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-logging.mdx index 1d1733ab..2b25b193 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-logging.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-logging.mdx @@ -1,9 +1,10 @@ --- tags: - Community +displayed_sidebar: docsJapanese --- -# Helm Charts の入門 (Loki スタックを使用したロギング) +# Helm Charts をはじめよう (Loki スタックを使用したロギング) import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; @@ -11,7 +12,7 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; このドキュメントでは、Grafana Loki (Promtail を使用) を使用して、Kubernetes 上で Scalar 製品のログ集約を開始する方法について説明します。 -Scalar 製品の [モニタリングの開始](getting-started-monitoring.mdx) をすでに読み、kube-prometheus-stack をインストールしていることを前提としています。 +Scalar 製品の[モニタリングの開始](getting-started-monitoring.mdx)をすでに読み、kube-prometheus-stack をインストールしていることを前提としています。 ## 私たちが作るもの @@ -49,11 +50,11 @@ Scalar 製品の [モニタリングの開始](getting-started-monitoring.mdx) +---------+ ``` -## ステップ 1. カスタム値ファイルを準備する +## ステップ1. カスタム値ファイルを準備する -1. `loki-stack` helm chart のサンプル ファイル [scalar-loki-stack-custom-values.yaml](./conf/scalar-loki-stack-custom-values.yaml) を取得します。 +1. `loki-stack` helm chart のサンプルファイル [scalar-loki-stack-custom-values.yaml](./conf/scalar-loki-stack-custom-values.yaml) を取得します。 -## ステップ 2. `loki-stack` をデプロイする +## ステップ2. `loki-stack` をデプロイする 1. `grafana` helm リポジトリを追加します。 ```console @@ -65,9 +66,9 @@ Scalar 製品の [モニタリングの開始](getting-started-monitoring.mdx) helm install scalar-logging-loki grafana/loki-stack -n monitoring -f scalar-loki-stack-custom-values.yaml ``` -## ステップ 3. Grafana 構成に Loki データ ソースを追加する +## ステップ3. Grafana 構成に Loki データソースを追加する -1. Loki データ ソースの設定を `scalar-prometheus-custom-values.yaml` ファイルに追加します。 +1. Loki データソースの設定を `scalar-prometheus-custom-values.yaml` ファイルに追加します。 ```yaml grafana: additionalDataSources: @@ -85,14 +86,14 @@ Scalar 製品の [モニタリングの開始](getting-started-monitoring.mdx) helm upgrade scalar-monitoring prometheus-community/kube-prometheus-stack -n monitoring -f scalar-prometheus-custom-values.yaml ``` -## ステップ 4. Grafana ダッシュボードにアクセスする +## ステップ4. Grafana ダッシュボードにアクセスする 1. Loki をデータソースとして追加する - Grafana http://localhost:3000 に移動します (minikube を使用する場合) - `Explore` に移動して、追加された Loki を見つけます - 収集されたログは `Explore` ページで確認できます。 -## ステップ 5. `loki-stack` helm chartを削除する +## ステップ5. `loki-stack` helm chartを削除する 1. `loki-stack` をアンインストールします。 ```console diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-monitoring.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-monitoring.mdx index 099154d4..1010b668 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-monitoring.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-monitoring.mdx @@ -1,15 +1,16 @@ --- tags: - Community +displayed_sidebar: docsJapanese --- -# Helm Charts の入門 (Prometheus Operator を使用したモニタリング) +# Helm Charts をはじめよう (Prometheus Operator を使用したモニタリング) import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、Prometheus Operator (kube-prometheus-stack) を使用して Kubernetes 上で Scalar 製品の監視を開始する方法について説明します。 ここでは、テスト用の Mac または Linux 環境がすでにあることを前提としています。 このドキュメントでは **Minikube** を使用しますが、これから説明する手順はどの Kubernetes クラスターでも機能するはずです。 +このドキュメントでは、Prometheus Operator (kube-prometheus-stack) を使用して Kubernetes 上で Scalar 製品の監視を開始する方法について説明します。ここでは、テスト用の Mac または Linux 環境がすでにあることを前提としています。このドキュメントでは **Minikube** を使用しますが、これから説明する手順はどの Kubernetes クラスターでも機能するはずです。 ## 私たちが作るもの @@ -39,13 +40,13 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; +---------+ ``` -## ステップ 1. Kubernetes クラスターを開始する +## ステップ1. Kubernetes クラスターを開始する -まず、Kubernetes クラスターを準備する必要があります。 **minikube** 環境を使用する場合は、[Scalar Helm Charts の入門](getting-started-scalar-helm-charts.mdx) を参照してください。 すでに Kubernetes クラスターを開始している場合は、この手順をスキップできます。 +まず、Kubernetes クラスターを準備する必要があります。**minikube** 環境を使用する場合は、[Scalar Helm Charts をはじめよう](getting-started-scalar-helm-charts.mdx)を参照してください。すでに Kubernetes クラスターを開始している場合は、この手順をスキップできます。 -## ステップ 2. カスタム値ファイルを準備する +## ステップ2. カスタム値ファイルを準備する -1. `kube-prometheus-stack` のサンプル ファイル [scalar-prometheus-custom-values.yaml](./conf/scalar-prometheus-custom-values.yaml) を保存します。 +1. `kube-prometheus-stack` のサンプルファイル [scalar-prometheus-custom-values.yaml](./conf/scalar-prometheus-custom-values.yaml) を保存します。 1. 次のように `scalar-prometheus-custom-values.yaml` にカスタム値を追加します。 * 設定 @@ -81,7 +82,7 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; * Helm Chart を使用して Prometheus Operator デプロイメントをカスタマイズする場合は、Scalar 製品を監視するために次の構成を設定する必要があります。 * Prometheus Operator が Scalar 製品の `ServiceMonitor` および `PrometheusRule` を検出できるように、`serviceMonitorSelectorNilUsesHelmValues` および `ruleSelectorNilUsesHelmValues` を `false` (デフォルトでは `true`) に設定します。 - * Scalar Manager を使用する場合は、Scalar Manager が CPU およびメモリ リソースを収集できるように次の構成を設定する必要があります。 + * Scalar Manager を使用する場合は、Scalar Manager が CPU およびメモリリソースを収集できるように次の構成を設定する必要があります。 * `kubeStateMetrics.enabled`、`nodeExporter.enabled`、および `kubelet.enabled` を `true` に設定します。 * Scalar Manager を使用する場合は、Scalar Manager が Grafana を組み込みきるように次の構成を設定する必要があります。 @@ -89,7 +90,7 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; * `grafana.ini.auth.anonymous.org_name` を使用中の組織に設定します。Scalar のサンプルを使う場合では、`Main Org.` に設定します。 * `grafana.ini.auth.anonymous.org_role` を `Editor` に設定します。 -## ステップ 3. `kube-prometheus-stack` をデプロイする +## ステップ3. `kube-prometheus-stack` をデプロイする 1. `prometheus-community` helm リポジトリを追加します。 ```console @@ -106,10 +107,10 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; helm install scalar-monitoring prometheus-community/kube-prometheus-stack -n monitoring -f scalar-prometheus-custom-values.yaml ``` -## ステップ 4. Helm Chart を使用して Scalar 製品をデプロイ (またはアップグレード) +## ステップ4. Helm Chart を使用して Scalar 製品をデプロイ (またはアップグレード) * 注記: - * 最低限の手順を説明します。 ScalarDB および ScalarDL のデプロイメントについて詳しく知りたい場合は、以下のドキュメントを参照してください。 + * 最低限の手順を説明します。ScalarDB および ScalarDL のデプロイメントについて詳しく知りたい場合は、以下のドキュメントを参照してください。 * [Helm Charts 入門 (ScalarDB Server)](getting-started-scalardb.mdx) * [Helm Charts 入門 (ScalarDL Ledger / Ledger のみ)](getting-started-scalardl-ledger.mdx) * [Helm Charts 入門 (ScalarDL Ledger および Auditor / Auditor モード)](getting-started-scalardl-auditor.mdx) @@ -199,11 +200,11 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; helm upgrade scalardl-auditor scalar-labs/scalardl-audit -f ./scalardl-auditor-custom-values.yaml ``` -## ステップ 5. ダッシュボードにアクセスする +## ステップ5. ダッシュボードにアクセスする ### minikube を使用する場合 -1. 各サービス リソースを `localhost (127.0.0.1)` として公開するには、別のターミナルを開き、`minikube tunnel` コマンドを実行します。 +1. 各サービスリソースを `localhost (127.0.0.1)` として公開するには、別のターミナルを開き、`minikube tunnel` コマンドを実行します。 ```console minikube tunnel ``` @@ -246,13 +247,13 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; ### minikube 以外の Kubernetes を使用する場合 -minikube 以外の Kubernetes クラスターを使用する場合は、各 Kubernetes クラスターの方式に従って LoadBalancer サービスにアクセスする必要があります。 たとえば、クラウド サービスによって提供されるロード バランサーや `kubectl port-forward` コマンドを使用します。 +minikube 以外の Kubernetes クラスターを使用する場合は、各 Kubernetes クラスターの方式に従って LoadBalancer サービスにアクセスする必要があります。たとえば、クラウドサービスによって提供されるロードバランサーや `kubectl port-forward` コマンドを使用します。 -## ステップ 6. すべてのリソースを削除する +## ステップ6. すべてのリソースを削除する -Kubernetes クラスターでのモニタリング テストが完了したら、すべてのリソースを削除します。 +Kubernetes クラスターでのモニタリングテストが完了したら、すべてのリソースを削除します。 -1. `minikube tunnel` コマンドを終了します。 (minikubeを使用する場合) +1. `minikube tunnel` コマンドを終了します。(minikubeを使用する場合) ```console Ctrl + C ``` @@ -262,7 +263,7 @@ Kubernetes クラスターでのモニタリング テストが完了したら helm uninstall scalar-monitoring -n monitoring ``` -1. minikube を削除します。 (オプション / minikube を使用する場合) +1. minikube を削除します。(オプション / minikube を使用する場合) ```console minikube delete --all ``` diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalar-helm-charts.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalar-helm-charts.mdx index 11ca9c36..3d6e5ef6 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalar-helm-charts.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalar-helm-charts.mdx @@ -2,11 +2,12 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- -# Scalar Helm Charts の入門 +# Scalar Helm Charts をはじめよう -このドキュメントでは、Kubernetes クラスター上でテスト環境として Scalar Helm Chart を開始する方法について説明します。 ここでは、テスト用の Mac または Linux 環境がすでにあることを前提としています。 このドキュメントでは **Minikube** を使用しますが、これから説明する手順はどの Kubernetes クラスターでも機能するはずです。 +このドキュメントでは、Kubernetes クラスター上でテスト環境として Scalar Helm Chart を開始する方法について説明します。ここでは、テスト用の Mac または Linux 環境がすでにあることを前提としています。このドキュメントでは **Minikube** を使用しますが、これから説明する手順はどの Kubernetes クラスターでも機能するはずです。 ## ツール @@ -17,17 +18,17 @@ tags: 1. Helm 1. cfssl / cfssljson -## ステップ 1. ツールをインストールする +## ステップ1. ツールをインストールする まず、このガイドで使用する次のツールをインストールする必要があります。 -1. [minikubeドキュメント](https://minikube.sigs.k8s.io/docs/start/) に従って minikube をインストールします。 +1. [minikubeドキュメント](https://minikube.sigs.k8s.io/docs/start/)に従って minikube をインストールします。 -1. [Kubernetesドキュメント](https://kubernetes.io/docs/tasks/tools/install-kubectl-linux/) に従って kubectl をインストールします。 +1. [Kubernetesドキュメント](https://kubernetes.io/docs/tasks/tools/install-kubectl-linux/)に従って kubectl をインストールします。 -1. [Helmドキュメント](https://helm.sh/docs/intro/install/) に従って helm コマンドをインストールします。 +1. [Helmドキュメント](https://helm.sh/docs/intro/install/)に従って helm コマンドをインストールします。 -1. [CFSSLドキュメント](https://github.com/cloudflare/cfssl) に従って cfssl と cfssljson をインストールします。 +1. [CFSSLドキュメント](https://github.com/cloudflare/cfssl)に従って cfssl と cfssljson をインストールします。 :::note @@ -40,7 +41,7 @@ tags: ::: -## ステップ 2. docker ドライバーで minikube を起動する (オプション / minikube を使用する場合) +## ステップ2. docker ドライバーで minikube を起動する (オプション / minikube を使用する場合) 1. minikube を起動します。 ```console @@ -64,9 +65,9 @@ tags: ``` minikube が適切に起動すると、いくつかのポッドが kube-system 名前空間で**実行中**であることがわかります。 -## ステップ 3。 +## ステップ3。 -Kubernetes クラスターが起動したら、そのクラスター上で各 Scalar Helm Charts を試すことができます。 詳細については、以下のドキュメントを参照してください。 +Kubernetes クラスターが起動したら、そのクラスター上で各 Scalar Helm Charts を試すことができます。詳細については、以下のドキュメントを参照してください。 * [TLS を使用した ScalarDB Cluster](getting-started-scalardb-cluster-tls.mdx) * [cert-manager を使用した TLS 対応 ScalarDB Cluster](getting-started-scalardb-cluster-tls-cert-manager.mdx) diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalar-manager.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalar-manager.mdx index 8061a249..beba9546 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalar-manager.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalar-manager.mdx @@ -1,6 +1,7 @@ --- tags: - Enterprise Option +displayed_sidebar: docsJapanese --- # Scalar Manager をデプロイする @@ -69,7 +70,7 @@ Scalar Manager をデプロイする前に、次の操作を行う必要があ +---------+ +---------+ ``` -## ステップ 1. minikube を起動します +## ステップ1. minikube を起動します **Terminal** を開き、次のコマンドを実行して minikube を起動します。 @@ -77,7 +78,7 @@ Scalar Manager をデプロイする前に、次の操作を行う必要があ minikube start ``` -## ステップ 2. Grafana を埋め込めるように `kube-prometheus-stack` をアップグレードする +## ステップ2. Grafana を埋め込めるように `kube-prometheus-stack` をアップグレードする `kube-prometheus-stack` のカスタム値ファイル (たとえば `scalar-prometheus-custom-values.yaml`) に、次の構成を追加するか、すでに存在する場合は修正します。 @@ -109,7 +110,7 @@ grafana: helm upgrade scalar-monitoring prometheus-community/kube-prometheus-stack -n monitoring -f scalar-prometheus-custom-values.yaml ``` -## ステップ 3. 環境変数を設定する +## ステップ3. 環境変数を設定する 次のコマンドを実行し、山括弧内の内容を説明に従って置き換えて、Scalar Manager の環境変数を設定します。 @@ -120,14 +121,14 @@ SCALAR_MANAGER_CUSTOM_VALUES_FILE= SCALAR_MANAGER_CHART_VERSION= ``` -## ステップ 4. Scalar Manager のカスタム値ファイルを準備する +## ステップ4. Scalar Manager のカスタム値ファイルを準備する 次の手順に従って、Scalar Manager のカスタム値ファイルを準備します。 1. `scalar-manager-custom-values.yaml` という名前の空のファイルを作成します。 1. [Scalar Manager のカスタム値ファイルを構成する](configure-custom-values-scalar-manager.mdx)の手順に従います。 -## ステップ 5. `scalar-manager` をインストールしてデプロイする +## ステップ5. `scalar-manager` をインストールしてデプロイする 次のコマンドを実行して、`scalar-manager` Helm Chart をインストールしてデプロイします。 @@ -135,7 +136,7 @@ SCALAR_MANAGER_CHART_VERSION= helm install ${SCALAR_MANAGER_RELEASE_NAME} scalar-labs/scalar-manager -n ${SCALAR_MANAGER_NAMESPACE} -f ${SCALAR_MANAGER_CUSTOM_VALUES_FILE} --version ${SCALAR_MANAGER_CHART_VERSION} ``` -## ステップ 6. Scalar Manager にアクセスする +## ステップ6. Scalar Manager にアクセスする Scalar Manager にアクセスする方法は、Kubernetes クラスターに使用しているツールによって異なります。 @@ -182,7 +183,7 @@ helm uninstall ${SCALAR_MANAGER_RELEASE_NAME} -n ${SCALAR_MANAGER_NAMESPACE} ### オプションの Scalar Manager 構成 -Scalar Manager に設定できるオプションの構成については、[オプション設定](./configure-custom-values-scalar-manager.mdx#オプション設定) を参照してください。 +Scalar Manager に設定できるオプションの構成については、[オプション設定](./configure-custom-values-scalar-manager.mdx#オプション設定)を参照してください。 ### リソースの検出 @@ -201,7 +202,7 @@ Scalar Manager は、特定のラベルセレクターを使用して、クラ #### 依存関係 -Scalar Manager は、[kube-prometheus-stack](https://github.com/prometheus-community/helm-charts/tree/main/charts/kube-prometheus-stack) および [loki-stack](https://github.com/grafana/helm-charts/tree/main/charts/loki-stack) Helm Chart に設定されているデフォルトのラベルと値を検索します。Scalar Manager が依存関係を検出するために使用するデフォルトのラベルと値の詳細については、[`api.applicationProperties` で設定できるプロパティ](./configure-custom-values-scalar-manager.mdx#apiapplicationPropertiesで設定できるプロパティ) を参照してください。 +Scalar Manager は、[kube-prometheus-stack](https://github.com/prometheus-community/helm-charts/tree/main/charts/kube-prometheus-stack) および [loki-stack](https://github.com/grafana/helm-charts/tree/main/charts/loki-stack) Helm Chart に設定されているデフォルトのラベルと値を検索します。Scalar Manager が依存関係を検出するために使用するデフォルトのラベルと値の詳細については、[`api.applicationProperties` で設定できるプロパティ](./configure-custom-values-scalar-manager.mdx#apiapplicationProperties-で設定できるプロパティ)を参照してください。 また、`kube-prometheus-stack` または `loki-stack` のインストール時に値をカスタマイズした場合は、Scalar Manager のカスタム値 `api.applicationProperties` のラベルセレクターを更新する必要があります。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalardb-analytics-postgresql.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalardb-analytics-postgresql.mdx index 5ff293c6..57f8d795 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalardb-analytics-postgresql.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalardb-analytics-postgresql.mdx @@ -1,15 +1,16 @@ --- tags: - Community +displayed_sidebar: docsJapanese --- -# Helm Charts の入門 (ScalarDB Analytics with PostgreSQL) +# Helm Charts をはじめよう (ScalarDB Analytics with PostgreSQL) import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このガイドでは、Kubernetes クラスターの Helm Chart をテスト環境として使用して、ScalarDB Analytics with PostgreSQL を開始する方法について説明します。 さらに、このガイドの内容は、テスト用に Mac または Linux 環境がすでにセットアップされていることを前提としています。 **minikube** について言及していますが、説明されている手順はどの Kubernetes クラスターでも機能するはずです。 +このガイドでは、Kubernetes クラスターの Helm Chart をテスト環境として使用して、ScalarDB Analytics with PostgreSQL を開始する方法について説明します。さらに、このガイドの内容は、テスト用に Mac または Linux 環境がすでにセットアップされていることを前提としています。**minikube** について言及していますが、説明されている手順はどの Kubernetes クラスターでも機能するはずです。 ## あなたが作成するもの @@ -34,19 +35,19 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; | +------------------------------------+ | | | | | | +-------------+ | | -| | OLTP クライアント | ---(テスト OLTP ワークロードでサンプル データをロードする)-----------------------------------------------------------------------+ | +| | OLTP クライアント | ---(テスト OLTP ワークロードでサンプルデータをロードする)-----------------------------------------------------------------------+ | | +-------------+ | | | +-------------------------------------------------------------------------------------------------------------------------------------------+ ``` -## ステップ 1. Kubernetes クラスターを開始する +## ステップ1. Kubernetes クラスターを開始する -まず、Kubernetes クラスターを準備する必要があります。 **minikube** 環境を使用している場合は、[Scalar Helm Charts の入門](getting-started-scalar-helm-charts.mdx) を参照してください。 すでに Kubernetes クラスターを開始している場合は、この手順をスキップできます。 +まず、Kubernetes クラスターを準備する必要があります。**minikube** 環境を使用している場合は、[Scalar Helm Charts をはじめよう](getting-started-scalar-helm-charts.mdx)を参照してください。すでに Kubernetes クラスターを開始している場合は、この手順をスキップできます。 -## ステップ 2. MySQL および PostgreSQL ポッドを開始する +## ステップ2. MySQL および PostgreSQL ポッドを開始する -ScalarDB Analytics with PostgreSQL を含むScalarDBは、バックエンドデータベースとして数種類のデータベースシステムを利用できます。 このガイドでは、MySQL と PostgreSQL を使用します。 +ScalarDB Analytics with PostgreSQL を含むScalarDBは、バックエンドデータベースとして数種類のデータベースシステムを利用できます。このガイドでは、MySQL と PostgreSQL を使用します。 次のようにして、Kubernetes クラスターに MySQL と PostgreSQL をデプロイできます。 @@ -98,7 +99,7 @@ ScalarDB Analytics with PostgreSQL を含むScalarDBは、バックエンドデ postgresql-scalardb-0 1/1 Running 0 3m12s ``` -## ステップ 3. 作業ディレクトリを作成する +## ステップ3. 作業ディレクトリを作成する いくつかの構成ファイルをローカルに作成するので、それらのファイル用の作業ディレクトリを作成します。 @@ -106,13 +107,13 @@ ScalarDB Analytics with PostgreSQL を含むScalarDBは、バックエンドデ mkdir -p ~/scalardb-analytics-postgresql-test/ ``` -## ステップ 4. ScalarDB、ScalarDB Analytics with PostgreSQL、およびチャートのバージョンを設定します +## ステップ4. ScalarDB、ScalarDB Analytics with PostgreSQL、およびチャートのバージョンを設定します -以下の 3 つの環境変数を設定します。 別のバージョンの ScalarDB および ScalarDB Analytics with PostgreSQL を使用する場合は、必ず使用するバージョンに設定してください。 +以下の3つの環境変数を設定します。別のバージョンの ScalarDB および ScalarDB Analytics with PostgreSQL を使用する場合は、必ず使用するバージョンに設定してください。 :::note -ScalarDB Analytics with PostgreSQL のマイナー バージョン (例: 3.10.x) を ScalarDB と同じにする必要がありますが、パッチのバージョンを一致させる必要はありません。 たとえば、ScalarDB 3.10.1 と ScalarDB Analytics with PostgreSQL 3.10.3 を併用できます。 +ScalarDB Analytics with PostgreSQL のマイナーバージョン (例: 3.10.x) を ScalarDB と同じにする必要がありますが、パッチのバージョンを一致させる必要はありません。たとえば、ScalarDB 3.10.1と ScalarDB Analytics with PostgreSQL 3.10.3を併用できます。 ::: @@ -128,17 +129,17 @@ SCALARDB_ANALYTICS_WITH_POSTGRESQL_VERSION=3.10.3 CHART_VERSION=$(helm search repo scalar-labs/scalardb-analytics-postgresql -l | grep -e ${SCALARDB_ANALYTICS_WITH_POSTGRESQL_VERSION} | awk '{print $2}' | sort --version-sort -r | head -n 1) ``` -## ステップ 5. OLTP トランザクションを実行して、サンプル データを MySQL および PostgreSQL にロードします +## ステップ5. OLTP トランザクションを実行して、サンプルデータを MySQL および PostgreSQL にロードします ScalarDB Analytics with PostgreSQL を導入する前に、OLTPトランザクションを実行してサンプルデータを作成します。 -1. Kubernetes クラスターで OLTP クライアント ポッドを開始します。 +1. Kubernetes クラスターで OLTP クライアントポッドを開始します。 ```console kubectl run oltp-client --image eclipse-temurin:8-jdk-jammy --env SCALARDB_VERSION=${SCALARDB_VERSION} -- sleep inf ``` -1. OLTP クライアント ポッドが実行されているかどうかを確認します。 +1. OLTP クライアントポッドが実行されているかどうかを確認します。 ```console kubectl get pod oltp-client @@ -157,21 +158,21 @@ ScalarDB Analytics with PostgreSQL を導入する前に、OLTPトランザク oltp-client 1/1 Running 0 17s ``` -1. OLTP クライアント ポッドで bash を実行します。 +1. OLTP クライアントポッドで bash を実行します。 ```console kubectl exec -it oltp-client -- bash ``` - この手順の後、OLTP クライアント ポッドで各コマンドを実行します。 + この手順の後、OLTP クライアントポッドで各コマンドを実行します。 -1. git および curl コマンドを OLTP クライアント ポッドにインストールします。 +1. git および curl コマンドを OLTP クライアントポッドにインストールします。 ```console apt update && apt install -y curl git ``` -1. ScalarDB サンプル リポジトリのクローンを作成します。 +1. ScalarDB サンプルリポジトリのクローンを作成します。 ```console git clone https://github.com/scalar-labs/scalardb-samples.git @@ -200,19 +201,19 @@ ScalarDB Analytics with PostgreSQL を導入する前に、OLTPトランザク cat << 'EOF' > database.properties scalar.db.storage=multi-storage scalar.db.multi_storage.storages=storage0,storage1 - + # Storage 0 scalar.db.multi_storage.storages.storage0.storage=jdbc scalar.db.multi_storage.storages.storage0.contact_points=jdbc:mysql://mysql-scalardb.default.svc.cluster.local:3306/ scalar.db.multi_storage.storages.storage0.username=root scalar.db.multi_storage.storages.storage0.password=mysql - + # Storage 1 scalar.db.multi_storage.storages.storage1.storage=jdbc scalar.db.multi_storage.storages.storage1.contact_points=jdbc:postgresql://postgresql-scalardb.default.svc.cluster.local:5432/postgres scalar.db.multi_storage.storages.storage1.username=postgres scalar.db.multi_storage.storages.storage1.password=postgres - + scalar.db.multi_storage.namespace_mapping=customer:storage0,order:storage1 scalar.db.multi_storage.default_storage=storage1 EOF @@ -224,19 +225,19 @@ ScalarDB Analytics with PostgreSQL を導入する前に、OLTPトランザク curl -OL https://github.com/scalar-labs/scalardb/releases/download/v${SCALARDB_VERSION}/scalardb-schema-loader-${SCALARDB_VERSION}.jar ``` -1. Schema Loader を実行してサンプル テーブルを作成します。 +1. Schema Loader を実行してサンプルテーブルを作成します。 ```console java -jar scalardb-schema-loader-${SCALARDB_VERSION}.jar --config database.properties --schema-file schema.json --coordinator ``` -1. サンプル ワークロードの初期データをロードします。 +1. サンプルワークロードの初期データをロードします。 ```console ./gradlew run --args="LoadInitialData" ``` -1. OLTP トランザクションのサンプル ワークロードを実行します。 これらのコマンドを実行すると、サンプル データとしていくつかの `order` エントリが作成されます。 +1. OLTP トランザクションのサンプルワークロードを実行します。これらのコマンドを実行すると、サンプルデータとしていくつかの `order` エントリが作成されます。 ```console ./gradlew run --args="PlaceOrder 1 1:3,2:2" @@ -277,7 +278,7 @@ ScalarDB Analytics with PostgreSQL を導入する前に、OLTPトランザク exit ``` -## ステップ 6. ScalarDB Analytics with PostgreSQL のデプロイ +## ステップ6. ScalarDB Analytics with PostgreSQL のデプロイ バックエンドデータベースにScalarDB経由でサンプルデータを作成した後、ScalarDB Analytics with PostgreSQL をデプロイします。 @@ -289,19 +290,19 @@ ScalarDB Analytics with PostgreSQL を導入する前に、OLTPトランザク databaseProperties: | scalar.db.storage=multi-storage scalar.db.multi_storage.storages=storage0,storage1 - + # Storage 0 scalar.db.multi_storage.storages.storage0.storage=jdbc scalar.db.multi_storage.storages.storage0.contact_points=jdbc:mysql://mysql-scalardb.default.svc.cluster.local:3306/ scalar.db.multi_storage.storages.storage0.username=root scalar.db.multi_storage.storages.storage0.password=mysql - + # Storage 1 scalar.db.multi_storage.storages.storage1.storage=jdbc scalar.db.multi_storage.storages.storage1.contact_points=jdbc:postgresql://postgresql-scalardb.default.svc.cluster.local:5432/postgres scalar.db.multi_storage.storages.storage1.username=postgres scalar.db.multi_storage.storages.storage1.password=postgres - + scalar.db.multi_storage.namespace_mapping=customer:storage0,order:storage1 scalar.db.multi_storage.default_storage=storage1 schemaImporter: @@ -311,7 +312,7 @@ ScalarDB Analytics with PostgreSQL を導入する前に、OLTPトランザク EOF ``` -1. PostgreSQL のスーパーユーザー パスワードを設定するためのシークレット リソースを作成します。 +1. PostgreSQL のスーパーユーザーパスワードを設定するためのシークレットリソースを作成します。 ```console kubectl create secret generic scalardb-analytics-postgresql-superuser-password --from-literal=superuser-password=scalardb-analytics @@ -323,17 +324,17 @@ ScalarDB Analytics with PostgreSQL を導入する前に、OLTPトランザク helm install scalardb-analytics-postgresql scalar-labs/scalardb-analytics-postgresql -n default -f ~/scalardb-analytics-postgresql-test/scalardb-analytics-postgresql-custom-values.yaml --version ${CHART_VERSION} ``` -## ステップ 7. OLAP クライアント ポッドを実行する +## ステップ7. OLAP クライアントポッドを実行する -ScalarDB Analytics with PostgreSQL を介して一部のクエリを実行するには、OLAP クライアント ポッドを実行します。 +ScalarDB Analytics with PostgreSQL を介して一部のクエリを実行するには、OLAP クライアントポッドを実行します。 -1. Kubernetes クラスターで OLAP クライアント ポッドを開始します。 +1. Kubernetes クラスターで OLAP クライアントポッドを開始します。 ```console kubectl run olap-client --image postgres:latest -- sleep inf ``` -1. OLAP クライアント ポッドが実行されているかどうかを確認します。 +1. OLAP クライアントポッドが実行されているかどうかを確認します。 ```console kubectl get pod olap-client @@ -352,17 +353,17 @@ ScalarDB Analytics with PostgreSQL を介して一部のクエリを実行する olap-client 1/1 Running 0 10s ``` -## ステップ 8. ScalarDB Analytics with PostgreSQL を介してサンプル クエリを実行する +## ステップ8. ScalarDB Analytics with PostgreSQL を介してサンプルクエリを実行する -OLAP クライアント ポッドを実行した後、ScalarDB Analytics with PostgreSQL を介していくつかのクエリを実行できます。 +OLAP クライアントポッドを実行した後、ScalarDB Analytics with PostgreSQL を介していくつかのクエリを実行できます。 -1. OLAP クライアント ポッドで bash を実行します。 +1. OLAP クライアントポッドで bash を実行します。 ```console kubectl exec -it olap-client -- bash ``` - この手順の後、OLAP クライアント ポッドで各コマンドを実行します。 + この手順の後、OLAP クライアントポッドで各コマンドを実行します。 1. psqlコマンドを実行して ScalarDB Analytics with PostgreSQL にアクセスします。 @@ -372,7 +373,7 @@ OLAP クライアント ポッドを実行した後、ScalarDB Analytics with Po パスワードは `scalardb-analytics` です。 -1. `customer.customers` テーブルのサンプル データを読み取ります。 +1. `customer.customers` テーブルのサンプルデータを読み取ります。 ```sql SELECT * FROM customer.customers; @@ -389,7 +390,7 @@ OLAP クライアント ポッドを実行した後、ScalarDB Analytics with Po (3 rows) ``` -1. `order.orders` テーブルのサンプル データを読み取ります。 +1. `order.orders` テーブルのサンプルデータを読み取ります。 ```sql SELECT * FROM "order".orders; @@ -412,7 +413,7 @@ OLAP クライアント ポッドを実行した後、ScalarDB Analytics with Po (8 rows) ``` -1. `order.statements` テーブルのサンプル データを読み取ります。 +1. `order.statements` テーブルのサンプルデータを読み取ります。 ```sql SELECT * FROM "order".statements; @@ -437,7 +438,7 @@ OLAP クライアント ポッドを実行した後、ScalarDB Analytics with Po (10 rows) ``` -1. `order.items` テーブルのサンプル データを読み取ります。 +1. `order.items` テーブルのサンプルデータを読み取ります。 ```sql SELECT * FROM "order".items; @@ -457,7 +458,7 @@ OLAP クライアント ポッドを実行した後、ScalarDB Analytics with Po (5 rows) ``` -1. `JOIN` クエリを実行します。 例えば以下のように各ユーザーのクレジット残高情報を確認できます。 +1. `JOIN` クエリを実行します。例えば以下のように各ユーザーのクレジット残高情報を確認できます。 ```sql SELECT * FROM ( @@ -493,13 +494,13 @@ OLAP クライアント ポッドを実行した後、ScalarDB Analytics with Po \q ``` -1. OLAP クライアント ポッドを終了します。 +1. OLAP クライアントポッドを終了します。 ```console exit ``` -## ステップ 9. すべてのリソースを削除する +## ステップ9. すべてのリソースを削除する Kubernetes クラスターで ScalarDB Analytics with PostgreSQL テストを完了したら、すべてのリソースを削除します。 @@ -509,19 +510,19 @@ Kubernetes クラスターで ScalarDB Analytics with PostgreSQL テストを完 helm uninstall mysql-scalardb postgresql-scalardb scalardb-analytics-postgresql ``` -1. クライアント ポッドを削除します。 +1. クライアントポッドを削除します。 ```console kubectl delete pod oltp-client olap-client --grace-period 0 ``` -1. 秘密リソースを削除します。 +1. シークレットリソースを削除します。 ```console kubectl delete secrets scalardb-analytics-postgresql-superuser-password ``` -1. 作業ディレクトリとサンプル ファイルを削除します。 +1. 作業ディレクトリとサンプルファイルを削除します。 ```console cd ~ diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalardb-cluster-tls-cert-manager.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalardb-cluster-tls-cert-manager.mdx index 808ea744..988ef514 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalardb-cluster-tls-cert-manager.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalardb-cluster-tls-cert-manager.mdx @@ -2,16 +2,17 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- -# Helm チャート入門 (cert-manager を使用した TLS 対応 ScalarDB Cluster) +# Helm Chart をはじめよう (cert-manager を使用した TLS 対応 ScalarDB Cluster) このチュートリアルでは、テスト環境の Kubernetes クラスターで Helm Charts と cert-manager を使用して、TLS 構成の ScalarDB Cluster を開始する方法について説明します。開始する前に、テスト用の Mac または Linux 環境がすでに用意されている必要があります。また、このチュートリアルでは **minikube** の使用について説明していますが、説明されている手順はどの Kubernetes クラスターでも機能するはずです。 ## 要件 -* ScalarDB Cluster のライセンスキー (試用ライセンスまたは商用ライセンス) が必要です。ライセンスキーをお持ちでない場合は、[お問い合わせ](https://www.scalar-labs.com/contact) ください。 -* TLS をサポートする ScalarDB Cluster 3.12 以降を使用する必要があります。 +* ScalarDB Cluster のライセンスキー (試用ライセンスまたは商用ライセンス) が必要です。ライセンスキーをお持ちでない場合は、[お問い合わせ](https://www.scalar-labs.com/contact)ください。 +* TLS をサポートする ScalarDB Cluster 3.12以降を使用する必要があります。 ## 作成するもの @@ -59,7 +60,7 @@ cert-manager は、TLS 接続用に次の秘密鍵と証明書ファイルを自 +----------------------+ ``` -Scalar Helm Charts は、Envoy および ScalarDB Cluster の各秘密キーと証明書ファイルを次のように自動的にマウントし、各接続で TLS を有効にします。ルート CA 証明書ファイルはクライアントに手動でマウントします。 +Scalar Helm Charts は、Envoy および ScalarDB Cluster の各秘密鍵と証明書ファイルを次のように自動的にマウントし、各接続で TLS を有効にします。ルート CA 証明書ファイルはクライアントに手動でマウントします。 ``` +-------------------------------------+ +------------------------------------------------+ +--------------------------------+ @@ -79,7 +80,7 @@ ScalarDB Cluster 関連コンポーネント間には、次の接続が存在し ## ステップ1. Kubernetesクラスターを起動してツールをインストールする -Kubernetes クラスターを準備し、いくつかのツール (`kubectl`、`helm`、`cfssl`、および `cfssljson`) をインストールする必要があります。インストール方法の詳細については、[Scalar Helm Charts の使用開始](getting-started-scalar-helm-charts.mdx) を参照してください。 +Kubernetes クラスターを準備し、いくつかのツール (`kubectl`、`helm`、`cfssl`、および `cfssljson`) をインストールする必要があります。インストール方法の詳細については、[Scalar Helm Charts の使用開始](getting-started-scalar-helm-charts.mdx)を参照してください。 ## ステップ2. PostgreSQLコンテナを起動する @@ -222,7 +223,7 @@ ScalarDB Cluster では、バックエンドデータベースとして何らか self-signed-issuer True 6s ``` -## ステップ 5. Helm Charts を使用して Kubernetes クラスターに ScalarDB Cluster をデプロイする +## ステップ5. Helm Charts を使用して Kubernetes クラスターに ScalarDB Cluster をデプロイする 1. Scalar Helm Charts リポジトリを追加します。 @@ -230,7 +231,7 @@ ScalarDB Cluster では、バックエンドデータベースとして何らか helm repo add scalar-labs https://scalar-labs.github.io/helm-charts ``` -1. ライセンス キーと証明書を環境変数として設定します。ライセンスキーがない場合は、[お問い合わせ](https://www.scalar-labs.com/contact) ください。`` の値の詳細については、[製品ライセンスキーを構成する方法](https://scalardb.scalar-labs.com/docs/latest/scalar-licensing/) を参照してください。 +1. ライセンスキーと証明書を環境変数として設定します。ライセンスキーがない場合は、[お問い合わせ](https://www.scalar-labs.com/contact)ください。`` の値の詳細については、[製品ライセンスキーを構成する方法](https://scalardb.scalar-labs.com/docs/latest/scalar-licensing/)を参照してください。 ```console SCALAR_DB_CLUSTER_LICENSE_KEY='' @@ -350,7 +351,7 @@ ScalarDB Cluster では、バックエンドデータベースとして何らか scalardb-cluster-node-7c6959c79d-4z54q 1/1 Running 0 18s scalardb-cluster-node-7c6959c79d-vcv96 1/1 Running 0 18s ``` - + ScalarDB Cluster ポッドが適切にデプロイされている場合、それらのポッドの `STATUS` 列には `Running` と表示されます。 1. ScalarDB Cluster サービスがデプロイされているかどうかを確認します。 @@ -451,7 +452,7 @@ CA 証明書ファイルはクライアントコンテナーで使用します ```console kubectl exec -it scalardb-cluster-client -n default -- bash ``` - + 次の手順のコマンドは、クライアントコンテナーで実行する必要があります。 1. [リリース](https://github.com/scalar-labs/scalardb/releases)から ScalarDB Cluster SQL CLI をダウンロードします。 @@ -492,7 +493,7 @@ CA 証明書ファイルはクライアントコンテナーで使用します CREATE NAMESPACE ns; ``` -1. 名前空間 `ns` の下に `tbl` という名前のサンプル テーブルを作成します。 +1. 名前空間 `ns` の下に `tbl` という名前のサンプルテーブルを作成します。 ```sql CREATE TABLE ns.tbl (a INT, b INT, c INT, PRIMARY KEY(a, b)); @@ -590,6 +591,6 @@ Kubernetes クラスターで ScalarDB Cluster テストを完了したら、す Scalar 製品の監視またはログ記録を開始する方法については、次のチュートリアルを参照してください。 -* [Helm チャートの使用開始 (Prometheus Operator を使用したモニタリング)](getting-started-monitoring.mdx) -* [Helm チャートの使用開始 (Loki Stack を使用したログ記録)](getting-started-logging.mdx) -* [Helm チャートの使用開始 (Scalar Manager)](getting-started-scalar-manager.mdx) +* [Helm Charts をはじめよう (Prometheus Operator を使用したモニタリング)](getting-started-monitoring.mdx) +* [Helm Charts をはじめよう (Loki Stack を使用したログ記録)](getting-started-logging.mdx) +* [Helm Charts をはじめよう (Scalar Manager)](getting-started-scalar-manager.mdx) diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalardb-cluster-tls.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalardb-cluster-tls.mdx index 64c29fa9..52e928be 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalardb-cluster-tls.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalardb-cluster-tls.mdx @@ -2,15 +2,16 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- -# Helm チャートの入門 (TLS を使用した ScalarDB Cluster) +# Helm Charts をはじめよう (TLS を使用した ScalarDB Cluster) -このドキュメントでは、Kubernetes クラスター上の Helm Chart をテスト環境として使用して、TLS 構成で ScalarDB クラスターを開始する方法について説明します。 ここでは、テスト用の Mac または Linux 環境がすでにあることを前提としています。 このドキュメントでは **minikube** を使用しますが、これから説明する手順はどの Kubernetes クラスターでも機能するはずです。 +このドキュメントでは、Kubernetes クラスター上の Helm Chart をテスト環境として使用して、TLS 構成で ScalarDB Cluster を開始する方法について説明します。ここでは、テスト用の Mac または Linux 環境がすでにあることを前提としています。このドキュメントでは **minikube** を使用しますが、これから説明する手順はどの Kubernetes クラスターでも機能するはずです。 ## 要件 -* ScalarDB Cluster のライセンスキー(トライアルライセンスまたは商用ライセンス)を取得する必要があります。 ライセンスキーをお持ちでない場合は、[お問い合わせ](https://www.scalar-labs.com/contact) してください。 +* ScalarDB Cluster のライセンスキー (トライアルライセンスまたは商用ライセンス) を取得する必要があります。ライセンスキーをお持ちでない場合は、[お問い合わせ](https://www.scalar-labs.com/contact)してください。 * TLSをサポートするScalarDB Cluster v3.12以降を使用する必要があります。 ## 作成するもの @@ -37,7 +38,7 @@ tags: +----------------------------------------------------------------------------------------------------------------------------------------------------+ ``` -TLS 接続用に次の秘密キーファイルと証明書ファイルを作成します。 +TLS 接続用に次の秘密鍵ファイルと証明書ファイルを作成します。 ``` +-------------------------------+ @@ -55,7 +56,7 @@ TLS 接続用に次の秘密キーファイルと証明書ファイルを作成 +-------------------------------+ ``` -各接続で TLS を有効にするために、各秘密キーと証明書ファイルを次のように設定します。 +各接続で TLS を有効にするために、各秘密鍵と証明書ファイルを次のように設定します。 ``` +--------------------------------+ +-----------------------------------------+ +-----------------------------------------+ @@ -71,15 +72,15 @@ ScalarDB Cluster 関連コンポーネント間には、次の接続がありま * **`クライアント - ScalarDB Cluster の Envoy`:** 一部のCRUD APIやSQL APIを実行すると、クライアントはEnvoy for ScalarDB Clusterにアクセスします。 * **`ScalarDB Cluster の Envoy - ScalarDB Cluster`:** Envoy は、ScalarDB Cluster の前の L7 (gRPC) ロードバランサーとして機能します。 -* **`ScalarDB Cluster ノード - ScalarDB Cluster ノード`:** ScalarDB Cluster ノードから別の ScalarDB Cluster ノードにアクセスします。 言い換えれば、すべての ScalarDB Cluster ノード間でクラスターの内部通信が行われます。 +* **`ScalarDB Cluster ノード - ScalarDB Cluster ノード`:** ScalarDB Cluster ノードから別の ScalarDB Cluster ノードにアクセスします。言い換えれば、すべての ScalarDB Cluster ノード間でクラスターの内部通信が行われます。 -## ステップ 1. Kubernetes クラスターを開始する +## ステップ1. Kubernetes クラスターを開始する -Kubernetes クラスターを準備し、いくつかのツール (`kubectl`、`helm`、`cfssl`、および `cfssljson`) をインストールする必要があります。 インストール方法の詳細については、[Scalar Helm Charts の開始](getting-started-scalar-helm-charts.mdx) を参照してください。 +Kubernetes クラスターを準備し、いくつかのツール (`kubectl`、`helm`、`cfssl`、および `cfssljson`) をインストールする必要があります。インストール方法の詳細については、[Scalar Helm Charts をはじめよう](getting-started-scalar-helm-charts.mdx)を参照してください。 -## ステップ 2. PostgreSQL コンテナーを開始する +## ステップ2. PostgreSQL コンテナーを開始する -ScalarDB Cluster は、バックエンドデータベースとして何らかのデータベースシステムを使用する必要があります。 このチュートリアルでは、PostgreSQL を使用します。 +ScalarDB Cluster は、バックエンドデータベースとして何らかのデータベースシステムを使用する必要があります。このチュートリアルでは、PostgreSQL を使用します。 次のようにして、Kubernetes クラスターに PostgreSQL をデプロイできます。 @@ -89,7 +90,7 @@ ScalarDB Cluster は、バックエンドデータベースとして何らかの helm repo add bitnami https://charts.bitnami.com/bitnami ``` -1. ScalarDB クラスター用の PostgreSQL をデプロイします。 +1. ScalarDB Cluster 用の PostgreSQL をデプロイします。 ```console helm install postgresql-scalardb-cluster bitnami/postgresql \ @@ -111,9 +112,9 @@ ScalarDB Cluster は、バックエンドデータベースとして何らかの postgresql-scalardb-cluster-0 1/1 Running 0 34s ``` -## ステップ 3. 作業ディレクトリを作成する +## ステップ3. 作業ディレクトリを作成する -いくつかの構成ファイルと秘密キーおよび証明書ファイルをローカルに作成します。 したがって、それらの作業ディレクトリを作成します。 +いくつかの構成ファイルと秘密鍵および証明書ファイルをローカルに作成します。したがって、それらの作業ディレクトリを作成します。 1. 作業ディレクトリを作成します。 @@ -121,9 +122,9 @@ ScalarDB Cluster は、バックエンドデータベースとして何らかの mkdir -p ${HOME}/scalardb-cluster-test/certs/ ``` -## ステップ 4. 秘密キーおよび証明書ファイルを作成する +## ステップ4. 秘密鍵および証明書ファイルを作成する -秘密キーと証明書ファイルを作成します。 +秘密鍵と証明書ファイルを作成します。 1. 作業ディレクトリを `${HOME}/scalardb-cluster-test/certs/` ディレクトリに変更します。 @@ -153,7 +154,7 @@ ScalarDB Cluster は、バックエンドデータベースとして何らかの EOF ``` -1. CA の鍵/証明書ファイルを作成します。 +1. CA の秘密鍵/証明書ファイルを作成します。 ```console cfssl gencert -initca ca.json | cfssljson -bare ca @@ -235,19 +236,19 @@ ScalarDB Cluster は、バックエンドデータベースとして何らかの EOF ``` -1. Envoy の秘密キーおよび証明書ファイルを作成します。 +1. Envoy の秘密鍵および証明書ファイルを作成します。 ```console cfssl gencert -ca ca.pem -ca-key ca-key.pem -config ca-config.json -profile scalar-test-ca envoy.json | cfssljson -bare envoy ``` -1. ScalarDB Cluster の秘密キーおよび証明書ファイルを作成します。 +1. ScalarDB Cluster の秘密鍵および証明書ファイルを作成します。 ```console cfssl gencert -ca ca.pem -ca-key ca-key.pem -config ca-config.json -profile scalar-test-ca scalardb-cluster.json | cfssljson -bare scalardb-cluster ``` -1. 秘密キーおよび証明書ファイルが作成されたことを確認します。 +1. 秘密鍵および証明書ファイルが作成されたことを確認します。 ```console ls -1 @@ -271,7 +272,7 @@ ScalarDB Cluster は、バックエンドデータベースとして何らかの scalardb-cluster.pem ``` -## ステップ 5. Helm チャートを使用して Kubernetes クラスターに ScalarDB Cluster をデプロイする +## ステップ5. Helm Charts を使用して Kubernetes クラスターに ScalarDB Cluster をデプロイする 1. Scalar helm リポジトリを追加します。 @@ -343,14 +344,14 @@ ScalarDB Cluster は、バックエンドデータベースとして何らかの EOF ``` -1. ライセンスキーと証明書を環境変数に設定します。 ライセンスキーをお持ちでない場合は、[お問い合わせ](https://www.scalar-labs.com/contact) してください。 +1. ライセンスキーと証明書を環境変数に設定します。ライセンスキーをお持ちでない場合は、[お問い合わせ](https://www.scalar-labs.com/contact)してください。 ```console SCALAR_DB_CLUSTER_LICENSE_KEY= SCALAR_DB_CLUSTER_LICENSE_CHECK_CERT_PEM= ``` -1. 資格情報とライセンスキーを含むシークレット リソース「scalardb-credentials-secret」を作成します。 +1. 資格情報とライセンスキーを含むシークレットリソース「scalardb-credentials-secret」を作成します。 ```console kubectl create secret generic scalardb-credentials-secret \ @@ -361,14 +362,14 @@ ScalarDB Cluster は、バックエンドデータベースとして何らかの -n default ``` -1. Envoy の秘密キーファイルと証明書ファイルを含むシークレットリソースを作成します。 +1. Envoy の秘密鍵ファイルと証明書ファイルを含むシークレットリソースを作成します。 ```console kubectl create secret generic envoy-tls-cert --from-file=tls.crt=${HOME}/scalardb-cluster-test/certs/envoy.pem -n default kubectl create secret generic envoy-tls-key --from-file=tls.key=${HOME}/scalardb-cluster-test/certs/envoy-key.pem -n default ``` -1. ScalarDB Cluster の秘密キー、証明書、CA 証明書ファイルを含むシークレットリソースを作成します。 +1. ScalarDB Cluster の秘密鍵、証明書、CA 証明書ファイルを含むシークレットリソースを作成します。 ```console kubectl create secret generic scalardb-cluster-tls-ca --from-file=ca.crt=${HOME}/scalardb-cluster-test/certs/ca.pem -n default @@ -427,7 +428,7 @@ ScalarDB Cluster は、バックエンドデータベースとして何らかの scalardb-cluster-headless ClusterIP None 60053/TCP 40s scalardb-cluster-metrics ClusterIP 10.96.199.135 9080/TCP 40s ``` - ScalarDB クラスター サービスが適切にデプロイされている場合は、CLUSTER-IP 列にプライベート IP アドレスが表示されます。 + ScalarDB Cluster サービスが適切にデプロイされている場合は、CLUSTER-IP 列にプライベート IP アドレスが表示されます。 :::note @@ -435,9 +436,9 @@ ScalarDB Cluster は、バックエンドデータベースとして何らかの ::: -## ステップ 6. クライアントコンテナを開始する +## ステップ6. クライアントコンテナを開始する -クライアントコンテナでCAの証明書ファイルを使用します。 そこで、シークレットリソースを作成し、クライアントコンテナにマウントします。 +クライアントコンテナでCAの証明書ファイルを使用します。そこで、シークレットリソースを作成し、クライアントコンテナにマウントします。 1. シークレットリソース `client-ca-cert` を作成します。 @@ -475,7 +476,7 @@ ScalarDB Cluster は、バックエンドデータベースとして何らかの EOF ``` -1. マニフェスト ファイルで ScalarDB Cluster のバージョンを設定します。 +1. マニフェストファイルで ScalarDB Cluster のバージョンを設定します。 ```console sed -i s/SCALAR_DB_CLUSTER_CLIENT_POD_SCALAR_DB_CLUSTER_VERSION/${SCALAR_DB_CLUSTER_VERSION}/ ${HOME}/scalardb-cluster-test/scalardb-cluster-client-pod.yaml @@ -500,17 +501,17 @@ ScalarDB Cluster は、バックエンドデータベースとして何らかの scalardb-cluster-client 1/1 Running 0 26s ``` -## ステップ 7. ScalarDB Cluster SQL CLI をダウンロードしてクライアント コンテナにコピーします +## ステップ7. ScalarDB Cluster SQL CLI をダウンロードしてクライアントコンテナにコピーします -1. ScalarDB Cluster SQL CLI を [リリース](https://github.com/scalar-labs/scalardb/releases) からディレクトリ `${HOME}/scalardb-cluster-test/` の下にダウンロードします。 +1. ScalarDB Cluster SQL CLI を [リリース](https://github.com/scalar-labs/scalardb/releases)からディレクトリ `${HOME}/scalardb-cluster-test/` の下にダウンロードします。 -1. ScalarDB Cluster SQL CLI をクライアント コンテナにコピーします。 +1. ScalarDB Cluster SQL CLI をクライアントコンテナにコピーします。 ```console kubectl cp ${HOME}/scalardb-cluster-test/scalardb-cluster-sql-cli-${SCALAR_DB_CLUSTER_VERSION}-all.jar scalardb-cluster-client:/ ``` -## ステップ 8. クライアントコンテナで ScalarDB Cluster SQL CLI を実行する +## ステップ8. クライアントコンテナで ScalarDB Cluster SQL CLI を実行する 1. クライアントコンテナで bash を実行します。 @@ -551,7 +552,7 @@ ScalarDB Cluster は、バックエンドデータベースとして何らかの CREATE NAMESPACE ns; ``` -1. 名前空間 `ns` の下にサンプル テーブル `tbl` を作成します。 +1. 名前空間 `ns` の下にサンプルテーブル `tbl` を作成します。 ```sql CREATE TABLE ns.tbl (a INT, b INT, c INT, PRIMARY KEY(a, b)); @@ -563,7 +564,7 @@ ScalarDB Cluster は、バックエンドデータベースとして何らかの INSERT INTO ns.tbl VALUES (1,2,3), (4,5,6), (7,8,9); ``` -1. 挿入したサンプル レコードを選択します。 +1. 挿入したサンプルレコードを選択します。 ```sql SELECT * FROM ns.tbl; @@ -583,7 +584,7 @@ ScalarDB Cluster は、バックエンドデータベースとして何らかの 3 rows selected (0.059 seconds) ``` -## ステップ 9. すべてのリソースを削除する +## ステップ9. すべてのリソースを削除する Kubernetes クラスターで ScalarDB Cluster のテストが完了したら、すべてのリソースを削除します。 @@ -605,7 +606,7 @@ Kubernetes クラスターで ScalarDB Cluster のテストが完了したら、 kubectl delete secrets scalardb-credentials-secret scalardb-cluster-tls-key scalardb-cluster-tls-cert scalardb-cluster-tls-ca envoy-tls-key envoy-tls-cert client-ca-cert ``` -1. 作業ディレクトリとサンプル ファイル (構成ファイル、秘密キー、および証明書) を削除します。 +1. 作業ディレクトリとサンプルファイル (構成ファイル、秘密鍵、および証明書) を削除します。 ```console cd ${HOME} @@ -619,6 +620,6 @@ Kubernetes クラスターで ScalarDB Cluster のテストが完了したら、 Scalar 製品の監視またはログ記録を開始する方法については、次のドキュメントで説明しています。 -* [Helm Charts の入門 (Prometheus Operator を使用したモニタリング)](getting-started-monitoring.mdx) -* [Helm Charts の入門 (Loki スタックを使用したロギング)](getting-started-logging.mdx) -* [Helm Charts の入門 (Scalar Manager)](getting-started-scalar-manager.mdx) +* [Helm Charts をはじめよう (Prometheus Operator を使用したモニタリング)](getting-started-monitoring.mdx) +* [Helm Charts をはじめよう (Loki スタックを使用したロギング)](getting-started-logging.mdx) +* [Helm Charts をはじめよう (Scalar Manager)](getting-started-scalar-manager.mdx) diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalardb.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalardb.mdx index 3170287a..3c6ba2c4 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalardb.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalardb.mdx @@ -3,9 +3,10 @@ tags: - Enterprise Standard - Enterprise Premium - Deprecated +displayed_sidebar: docsJapanese --- -# [非推奨] Helm Charts の入門 (ScalarDB Server) +# [非推奨] Helm Charts をはじめよう (ScalarDB Server) import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; @@ -13,15 +14,15 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; :::note -ScalarDB Server は非推奨になりました。 代わりに [ScalarDB Cluster](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/setup-scalardb-cluster-on-kubernetes-by-using-helm-chart) を使用してください。 +ScalarDB Server は非推奨になりました。代わりに [ScalarDB Cluster](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/setup-scalardb-cluster-on-kubernetes-by-using-helm-chart) を使用してください。 ::: -このドキュメントでは、Kubernetes クラスター上の Helm Chart をテスト環境として使用して、ScalarDB Server を開始する方法について説明します。 ここでは、テスト用の Mac または Linux 環境がすでにあることを前提としています。 このドキュメントでは **Minikube** を使用しますが、これから説明する手順はどの Kubernetes クラスターでも機能するはずです。 +このドキュメントでは、Kubernetes クラスター上の Helm Chart をテスト環境として使用して、ScalarDB Server を開始する方法について説明します。ここでは、テスト用の Mac または Linux 環境がすでにあることを前提としています。このドキュメントでは **Minikube** を使用しますが、これから説明する手順はどの Kubernetes クラスターでも機能するはずです。 ## 要件 -※コンテナイメージ(`scalardb-server` および `scalardb-envoy`)を取得するには、[AWS Marketplace](https://aws.amazon.com/marketplace/pp/prodview-rzbuhxgvqf4d2) または[Azure Marketplace](https://azuremarketplace.microsoft.com/en/marketplace/apps/scalarinc.scalardb) で ScalarDB を購読する必要があります。 詳細については、以下のドキュメントを参照してください。 +※コンテナイメージ (`scalardb-server` および `scalardb-envoy`) を取得するには、[AWS Marketplace](https://aws.amazon.com/marketplace/pp/prodview-rzbuhxgvqf4d2) または [Azure Marketplace](https://azuremarketplace.microsoft.com/en/marketplace/apps/scalarinc.scalardb) で ScalarDB を購読する必要があります。詳細については、以下のドキュメントを参照してください。 * [How to install Scalar products through AWS Marketplace](../scalar-kubernetes/AwsMarketplaceGuide.mdx) * [How to install Scalar products through Azure Marketplace](../scalar-kubernetes/AzureMarketplaceGuide.mdx) @@ -50,13 +51,13 @@ ScalarDB Server は非推奨になりました。 代わりに [ScalarDB Cluster +--------------------------------------------------------------------------------------------------------------------------------------+ ``` -## ステップ 1. Kubernetes クラスターを開始する +## ステップ1. Kubernetes クラスターを開始する -まず、Kubernetes クラスターを準備する必要があります。 **minikube** 環境を使用する場合は、[Scalar Helm Charts の入門](getting-started-scalar-helm-charts.mdx) を参照してください。 すでに Kubernetes クラスターを開始している場合は、この手順をスキップできます。 +まず、Kubernetes クラスターを準備する必要があります。**minikube** 環境を使用する場合は、[Scalar Helm Charts をはじめよう](getting-started-scalar-helm-charts.mdx)を参照してください。すでに Kubernetes クラスターを開始している場合は、この手順をスキップできます。 -## ステップ 2. PostgreSQL コンテナーを開始する +## ステップ2. PostgreSQL コンテナーを開始する -ScalarDB は、バックエンド データベースとして何らかのデータベース システムを使用します。 このドキュメントでは PostgreSQL を使用します。 +ScalarDB は、バックエンドデータベースとして何らかのデータベースシステムを使用します。このドキュメントでは PostgreSQL を使用します。 次のようにして、Kubernetes クラスターに PostgreSQL をデプロイできます。 @@ -82,14 +83,14 @@ ScalarDB は、バックエンド データベースとして何らかのデー postgresql-scalardb-0 1/1 Running 0 2m42s ``` -## ステップ 3. Helm Charts を使用して Kubernetes クラスターに ScalarDB Server をデプロイする +## ステップ3. Helm Charts を使用して Kubernetes クラスターに ScalarDB Server をデプロイする 1. Scalar helm リポジトリを追加します。 ```console helm repo add scalar-labs https://scalar-labs.github.io/helm-charts ``` -1. AWS/Azure Marketplace から ScalarDB コンテナー イメージをプルするためのシークレット リソースを作成します。 +1. AWS/Azure Marketplace から ScalarDB コンテナーイメージをプルするためのシークレットリソースを作成します。 * AWS Marketplace ```console kubectl create secret docker-registry reg-ecr-mp-secrets \ @@ -106,7 +107,7 @@ ScalarDB は、バックエンド データベースとして何らかのデー ``` 詳細については、以下のドキュメントを参照してください。 - + * [How to install Scalar products through AWS Marketplace](../scalar-kubernetes/AwsMarketplaceGuide.mdx) * [How to install Scalar products through Azure Marketplace](../scalar-kubernetes/AzureMarketplaceGuide.mdx) @@ -121,7 +122,7 @@ ScalarDB は、バックエンド データベースとして何らかのデー version: "1.3.0" imagePullSecrets: - name: "reg-ecr-mp-secrets" - + scalardb: image: repository: "709825985650.dkr.ecr.us-east-1.amazonaws.com/scalar/scalardb-server" @@ -138,7 +139,7 @@ ScalarDB は、バックエンド データベースとして何らかのデー ``` * Azure Marketplace - + ```console cat << 'EOF' > scalardb-custom-values.yaml envoy: @@ -147,7 +148,7 @@ ScalarDB は、バックエンド データベースとして何らかのデー version: "1.3.0" imagePullSecrets: - name: "reg-acr-secrets" - + scalardb: image: repository: "/scalarinc/scalardb-server" @@ -207,11 +208,11 @@ ScalarDB は、バックエンド データベースとして何らかのデー scalardb-headless ClusterIP None 60051/TCP 41s scalardb-metrics ClusterIP 10.108.188.10 8080/TCP 41s ``` - ScalarDB Server サービスが適切にデプロイされている場合は、CLUSTER-IP 列にプライベート IP アドレスが表示されます。 (注記: `scalardb-headless` には CLUSTER-IP がありません。) + ScalarDB Server サービスが適切にデプロイされている場合は、CLUSTER-IP 列にプライベート IP アドレスが表示されます。(注記: `scalardb-headless` には CLUSTER-IP がありません。) -## ステップ 4. クライアントコンテナを開始する +## ステップ4. クライアントコンテナを開始する -1. Kubernetes クラスター上でクライアント コンテナーを起動します。 +1. Kubernetes クラスター上でクライアントコンテナーを起動します。 ```console kubectl run scalardb-client --image eclipse-temurin:8-jdk --command sleep inf ``` @@ -226,17 +227,17 @@ ScalarDB は、バックエンド データベースとして何らかのデー scalardb-client 1/1 Running 0 23s ``` -## ステップ 5. クライアント コンテナで ScalarDB サンプル アプリケーションを実行する +## ステップ5. クライアントコンテナで ScalarDB サンプルアプリケーションを実行する -以下に最低限の手順を説明します。 ScalarDB についてさらに詳しく知りたい場合は、[Getting Started with ScalarDB](https://scalardb.scalar-labs.com/docs/latest/getting-started-with-scalardb) を参照してください。 +以下に最低限の手順を説明します。ScalarDB についてさらに詳しく知りたい場合は、[Getting Started with ScalarDB](https://scalardb.scalar-labs.com/docs/latest/getting-started-with-scalardb) を参照してください。 1. クライアントコンテナで bash を実行します。 ```console kubectl exec -it scalardb-client -- bash ``` - この手順の後、クライアント コンテナで各コマンドを実行します。 + この手順の後、クライアントコンテナで各コマンドを実行します。 -1. git およびcurl コマンドをクライアント コンテナにインストールします。 +1. git およびcurl コマンドをクライアントコンテナにインストールします。 ```console apt update && apt install -y git curl ``` @@ -266,13 +267,13 @@ ScalarDB は、バックエンド データベースとして何らかのデー git branch ``` 【コマンド実行結果】 - + ```console master * v3.7.0 ``` - 別のバージョンを使用する場合は、使用するバージョン(タグ)を指定してください。 + 別のバージョンを使用する場合は、使用するバージョン (タグ) を指定してください。 1. ディレクトリを `docs/getting-started/` に変更します。 ```console @@ -302,7 +303,7 @@ ScalarDB は、バックエンド データベースとして何らかのデー EOF ``` -1. サンプル アプリケーションの DB スキーマを定義する JSON ファイル (emoney-transaction.json) を作成します。 +1. サンプルアプリケーションの DB スキーマを定義する JSON ファイル (emoney-transaction.json) を作成します。 ```console cat << 'EOF' > emoney-transaction.json { @@ -326,7 +327,7 @@ ScalarDB は、バックエンド データベースとして何らかのデー java -jar ./scalardb-schema-loader-3.7.0.jar --config ./scalardb.properties -f emoney-transaction.json --coordinator ``` -1. サンプル アプリケーションを実行します。 +1. サンプルアプリケーションを実行します。 * `1000` を `user1` に請求します。 ```console ./gradlew run --args="-action charge -amount 1000 -to user1" @@ -348,7 +349,7 @@ ScalarDB は、バックエンド データベースとして何らかのデー ./gradlew run --args="-action getBalance -id merchant1" ``` -1. (オプション) 次のコマンドを使用して、サンプル アプリケーションを通じて挿入および変更された (INSERT/UPDATE) データを確認できます。 (このコマンドは、クライアント コンテナではなくローカルホストで実行する必要があります。) +1. (オプション) 次のコマンドを使用して、サンプルアプリケーションを通じて挿入および変更された (INSERT/UPDATE) データを確認できます。(このコマンドは、クライアントコンテナではなくローカルホストで実行する必要があります。) ```console kubectl exec -it postgresql-scalardb-0 -- bash -c 'export PGPASSWORD=postgres && psql -U postgres -d postgres -c "SELECT * FROM emoney.account"' ``` @@ -361,9 +362,9 @@ ScalarDB は、バックエンド データベースとして何らかのデー (2 rows) ``` * 注記: - * 通常はScalarDB経由でデータ(レコード)にアクセスする必要があります。 上記のコマンドはサンプルアプリケーションの動作を説明、確認するために使用します。 + * 通常はScalarDB経由でデータ (レコード) にアクセスする必要があります。上記のコマンドはサンプルアプリケーションの動作を説明、確認するために使用します。 -## ステップ 6. すべてのリソースを削除する +## ステップ6. すべてのリソースを削除する Kubernetes クラスター上で ScalarDB Server テストが完了したら、すべてのリソースを削除します。 @@ -381,6 +382,6 @@ Kubernetes クラスター上で ScalarDB Server テストが完了したら、 Scalar 製品の監視またはログ記録を開始する方法については、次のドキュメントで説明しています。 -* [Helm Charts の入門 (Prometheus Operator を使用したモニタリング)](getting-started-monitoring.mdx) -* [Helm Charts の入門 (Loki スタックを使用したロギング)](getting-started-logging.mdx) -* [Helm Charts の入門 (Scalar Manager)](getting-started-scalar-manager.mdx) +* [Helm Charts をはじめよう (Prometheus Operator を使用したモニタリング)](getting-started-monitoring.mdx) +* [Helm Charts をはじめよう (Loki スタックを使用したロギング)](getting-started-logging.mdx) +* [Helm Charts をはじめよう (Scalar Manager)](getting-started-scalar-manager.mdx) diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalardl-auditor-tls-cert-manager.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalardl-auditor-tls-cert-manager.mdx index 107eaed5..e79d1fe6 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalardl-auditor-tls-cert-manager.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalardl-auditor-tls-cert-manager.mdx @@ -1,14 +1,15 @@ --- +displayed_sidebar: docsJapanese --- -# Helm チャートを使い始める (cert-manager / Auditor モードを使用した TLS 対応の ScalarDL Ledger および Auditor) +# Helm Charts をはじめよう (cert-manager / Auditor モードを使用した TLS 対応の ScalarDL Ledger および Auditor) このチュートリアルでは、Kubernetes クラスターでテスト環境として Helm Charts と cert-manager を使用して、TLS 構成で ScalarDL Ledger と ScalarDL Auditor を使い始める方法について説明します。開始する前に、テスト用の Mac または Linux 環境を用意しておく必要があります。また、このチュートリアルでは **minikube** の使用について説明していますが、説明されている手順はどの Kubernetes クラスターでも機能するはずです。 ## 要件 -* ScalarDL のライセンスキー (試用ライセンスまたは商用ライセンス) が必要です。ライセンスキーをお持ちでない場合は、[お問い合わせ](https://www.scalar-labs.com/contact) ください。 -* TLS をサポートする ScalarDL 3.9 以降を使用する必要があります。 +* ScalarDL のライセンスキー (試用ライセンスまたは商用ライセンス) が必要です。ライセンスキーをお持ちでない場合は、[お問い合わせ](https://www.scalar-labs.com/contact)ください。 +* TLS をサポートする ScalarDL 3.9以降を使用する必要があります。 :::note @@ -81,7 +82,7 @@ cert-manager は、TLS 接続用に次の秘密鍵と証明書ファイルを自 +----------------------+ ``` -Scalar Helm Charts は、各接続で TLS を有効にするために、Envoy と ScalarDL の各秘密キーと証明書ファイルを次のように自動的にマウントします。ルート CA 証明書ファイルはクライアントに手動でマウントします。 +Scalar Helm Charts は、各接続で TLS を有効にするために、Envoy と ScalarDL の各秘密鍵と証明書ファイルを次のように自動的にマウントします。ルート CA 証明書ファイルはクライアントに手動でマウントします。 ``` +------------------------------------------------+ +--------------------------------------+ @@ -110,17 +111,17 @@ ScalarDL 関連コンポーネント間には、次の接続が存在します: * **`クライアント - ScalarDL Ledger 用 Envoy`:** ScalarDL API 関数を実行すると、クライアントは ScalarDL Ledger 用 Envoy にアクセスします。 * **`クライアント - ScalarDL Auditor 用 Envoy`:** ScalarDL API 関数を実行すると、クライアントは ScalarDL Auditor 用 Envoy にアクセスします。 -* **`ScalarDL Ledger 用 Envoy - ScalarDL Ledger`:** Envoy は ScalarDL Ledger の前で L7 (gRPC) ロード バランサーとして機能します。 -* **`ScalarDL Auditor 用 Envoy - ScalarDL Auditor`:** Envoy は ScalarDL Auditor の前で L7 (gRPC) ロード バランサーとして機能します。 +* **`ScalarDL Ledger 用 Envoy - ScalarDL Ledger`:** Envoy は ScalarDL Ledger の前で L7 (gRPC) ロードバランサーとして機能します。 +* **`ScalarDL Auditor 用 Envoy - ScalarDL Auditor`:** Envoy は ScalarDL Auditor の前で L7 (gRPC) ロードバランサーとして機能します。 * **`ScalarDL Auditor - Envoy for ScalarDL Ledger (ScalarDL Ledger)`:** ScalarDL がデータの一貫性を保つために回復プロセスを実行する必要がある場合、ScalarDL Auditor は Envoy を介して ScalarDL Ledger に対してリクエストを実行します。 -## ステップ 1. Kubernetes クラスターを起動してツールをインストールする +## ステップ1. Kubernetes クラスターを起動してツールをインストールする -Kubernetes クラスターを準備し、いくつかのツール (`kubectl`、`helm`、`cfssl`、および `cfssljson`) をインストールする必要があります。インストール方法の詳細については、[Scalar Helm Charts の使用開始](getting-started-scalar-helm-charts.mdx) を参照してください。 +Kubernetes クラスターを準備し、いくつかのツール (`kubectl`、`helm`、`cfssl`、および `cfssljson`) をインストールする必要があります。インストール方法の詳細については、[Scalar Helm Charts の使用開始](getting-started-scalar-helm-charts.mdx)を参照してください。 -## ステップ 2. PostgreSQL コンテナを起動する +## ステップ2. PostgreSQL コンテナを起動する -ScalarDL Ledger と ScalarDL Auditor は、バックエンド データベースとして何らかのデータベース システムを使用する必要があります。このチュートリアルでは、PostgreSQL を使用します。 +ScalarDL Ledger と ScalarDL Auditor は、バックエンドデータベースとして何らかのデータベースシステムを使用する必要があります。このチュートリアルでは、PostgreSQL を使用します。 次のようにして、Kubernetes クラスターに PostgreSQL をデプロイできます。 @@ -162,7 +163,7 @@ ScalarDL Ledger と ScalarDL Auditor は、バックエンド データベース postgresql-ledger-0 1/1 Running 0 16s ``` -## ステップ 3. 作業ディレクトリを作成する +## ステップ3. 作業ディレクトリを作成する ローカルにいくつかの構成ファイルと秘密鍵および証明書ファイルを作成します。必ずそれらのファイル用の作業ディレクトリを作成してください。 @@ -172,7 +173,7 @@ ScalarDL Ledger と ScalarDL Auditor は、バックエンド データベース mkdir -p ${HOME}/scalardl-test/ ``` -## ステップ 4. cert-manager と発行者リソースをデプロイする +## ステップ4. cert-manager と発行者リソースをデプロイする このチュートリアルでは、cert-manager を使用して秘密鍵と証明書を発行および管理します。次のようにして、Kubernetes クラスターに cert-manager をデプロイできます。 @@ -269,9 +270,9 @@ ScalarDL Ledger と ScalarDL Auditor は、バックエンド データベース self-signed-issuer True 6s ``` -## ステップ 5. Helm Charts を使用して ScalarDL Ledger と ScalarDL Auditor のデータベーススキーマを作成する +## ステップ5. Helm Charts を使用して ScalarDL Ledger と ScalarDL Auditor のデータベーススキーマを作成する -Helm Charts を使用して、Kubernetes クラスターに 2 つの ScalarDL Schema Loader ポッドをデプロイします。ScalarDL Schema Loader は、PostgreSQL に ScalarDL Ledger と Auditor のデータベーススキーマを作成します。 +Helm Charts を使用して、Kubernetes クラスターに2つの ScalarDL Schema Loader ポッドをデプロイします。ScalarDL Schema Loader は、PostgreSQL に ScalarDL Ledger と Auditor のデータベーススキーマを作成します。 1. Scalar Helm Charts リポジトリを追加します。 @@ -327,26 +328,26 @@ Helm Charts を使用して、Kubernetes クラスターに 2 つの ScalarDL Sc -n default ``` -1. ScalarDL スキーマローダーのチャートバージョンを設定します。 +1. ScalarDL Schema Loader のチャートバージョンを設定します。 ```console SCALAR_DL_VERSION=3.9.1 SCALAR_DL_SCHEMA_LOADER_CHART_VERSION=$(helm search repo scalar-labs/schema-loading -l | grep -F "${SCALAR_DL_VERSION}" | awk '{print $2}' | sort --version-sort -r | head -n 1) ``` -1. ScalarDL Ledger 用の ScalarDL スキーマローダーをデプロイします。 +1. ScalarDL Ledger 用の ScalarDL Schema Loader をデプロイします。 ```console helm install schema-loader-ledger scalar-labs/schema-loading -f ${HOME}/scalardl-test/schema-loader-ledger-custom-values.yaml --version ${SCALAR_DL_SCHEMA_LOADER_CHART_VERSION} -n default ``` -1. ScalarDL Auditor 用の ScalarDL スキーマローダーをデプロイします。 +1. ScalarDL Auditor 用の ScalarDL Schema Loader をデプロイします。 ```console helm install schema-loader-auditor scalar-labs/schema-loading -f ${HOME}/scalardl-test/schema-loader-auditor-custom-values.yaml --version ${SCALAR_DL_SCHEMA_LOADER_CHART_VERSION} -n default ``` -1. ScalarDL スキーマローダーポッドが「完了」ステータスでデプロイされているかどうかを確認します。 +1. ScalarDL Schema Loader ポッドが「完了」ステータスでデプロイされているかどうかを確認します。 ```console kubectl get pod -n default @@ -361,12 +362,12 @@ Helm Charts を使用して、Kubernetes クラスターに 2 つの ScalarDL Sc schema-loader-auditor-schema-loading-dvc5r 0/1 Completed 0 6s schema-loader-ledger-schema-loading-mtllb 0/1 Completed 0 10s ``` - - ScalarDL スキーマローダーポッドのステータスが **ContainerCreating** または **Running** の場合、それらのポッドの `STATUS` 列に `Completed` と表示されるまで待ちます。 -## ステップ 6. Helm Charts を使用して、Kubernetes クラスターに ScalarDL Ledger と ScalarDL Auditor をデプロイします + ScalarDL Schema Loader ポッドのステータスが **ContainerCreating** または **Running** の場合、それらのポッドの `STATUS` 列に `Completed` と表示されるまで待ちます。 -1. ライセンスキーと証明書を環境変数として設定します。ライセンスキーがない場合は、[お問い合わせ](https://www.scalar-labs.com/contact) ください。`` と `` の値の詳細については、[製品ライセンス キーを構成する方法](https://scalardl.scalar-labs.com/docs/latest/scalar-licensing/) を参照してください。 +## ステップ6. Helm Charts を使用して、Kubernetes クラスターに ScalarDL Ledger と ScalarDL Auditor をデプロイします + +1. ライセンスキーと証明書を環境変数として設定します。ライセンスキーがない場合は、[お問い合わせ](https://www.scalar-labs.com/contact)ください。`` と `` の値の詳細については、[製品ライセンスキーを構成する方法](https://scalardl.scalar-labs.com/docs/latest/scalar-licensing/)を参照してください。 ```console SCALAR_DL_LEDGER_LICENSE_KEY='' @@ -537,9 +538,9 @@ Helm Charts を使用して、Kubernetes クラスターに 2 つの ScalarDL Sc -n default ``` - 注意: 認証方法として `hmac` を使用する場合は、Helm Chart 側で `digital-signature` を無効にするためにダミーの秘密 `auditor-key` を作成する必要があります。 + 注意: 認証方法として `hmac` を使用する場合は、Helm Chart 側で `digital-signature` を無効にするためにダミーのシークレット `auditor-key` を作成する必要があります。 -1. ScalarDL Ledger と ScalarDL Auditor のチャート バージョンを設定します。 +1. ScalarDL Ledger と ScalarDL Auditor のチャートバージョンを設定します。 ```console SCALAR_DL_LEDGER_CHART_VERSION=$(helm search repo scalar-labs/scalardl -l | grep -v -e "scalar-labs/scalardl-audit" | grep -F "${SCALAR_DL_VERSION}" | awk '{print $2}' | sort --version-sort -r | head -n 1) @@ -614,14 +615,14 @@ Helm Charts を使用して、Kubernetes クラスターに 2 つの ScalarDL Sc ``` ScalarDL Ledger および ScalarDL Auditor サービスが適切にデプロイされている場合は、`CLUSTER-IP` 列にプライベート IP アドレスが表示されます。 - + :::note `scalardl-ledger-headless`、`scalardl-auditor-headless`、`postgresql-ledger-hl`、および `postgresql-auditor-hl` の `CLUSTER-IP` 値は、IP アドレスがないため `None` になります。 ::: -## ステップ 7. クライアントコンテナを起動する +## ステップ7. クライアントコンテナを起動する クライアントコンテナで CA 証明書ファイルを使用します。そのため、シークレットリソースを作成し、クライアントコンテナにマウントする必要があります。 @@ -631,7 +632,7 @@ Helm Charts を使用して、Kubernetes クラスターに 2 つの ScalarDL Sc kubectl create secret generic client-ca-cert --from-file=ca.crt=<(kubectl get secret self-signed-ca-cert-secret -o "jsonpath={.data['ca\.crt']}" | base64 -d) -n default ``` -1. クライアント ポッドのマニフェスト ファイル (`scalardl-client-pod.yaml`) を作成します。 +1. クライアントポッドのマニフェストファイル (`scalardl-client-pod.yaml`) を作成します。 ```console cat << 'EOF' > ${HOME}/scalardl-test/scalardl-client-pod.yaml @@ -685,7 +686,7 @@ Helm Charts を使用して、Kubernetes クラスターに 2 つの ScalarDL Sc scalardl-client 1/1 Running 0 4s ``` -## ステップ 8. クライアントコンテナで ScalarDL サンプルコントラクトを実行する +## ステップ8. クライアントコンテナで ScalarDL サンプルコントラクトを実行する 以下では、サンプルコントラクトを実行するために必要な最小限の手順について説明します。ScalarDL Ledger と ScalarDL Auditor の詳細については、以下を参照してください。 @@ -697,7 +698,7 @@ Helm Charts を使用して、Kubernetes クラスターに 2 つの ScalarDL Sc ```console kubectl exec -it scalardl-client -n default -- bash ``` - + 次の手順のコマンドは、クライアントコンテナーで実行する必要があります。 1. クライアントコンテナーに git、curl、unzip コマンドをインストールします。 @@ -805,8 +806,8 @@ Helm Charts を使用して、Kubernetes クラスターに 2 つの ScalarDL Sc ```console ./scalardl-java-client-sdk-${SCALAR_DL_VERSION}/bin/scalardl execute-contract --config ./client.properties --contract-id StateUpdater --contract-argument '{"asset_id": "test_asset", "state": 3}' ``` - - このサンプル契約は、`test_asset` という名前の資産の `state` (値) を `3` に更新します。 + + このサンプルコントラクトは、`test_asset` という名前のアセットの `state` (値) を `3` に更新します。 1. コントラクト `StateReader` を実行します。 @@ -829,10 +830,10 @@ Helm Charts を使用して、Kubernetes クラスターに 2 つの ScalarDL Sc ### 参照 - * 資産データが改ざんされていない場合、契約実行を要求する `execute-contract` コマンドを実行すると、結果として `OK` が返されます。 - * アセットデータが改ざんされている場合(たとえば、データベースの `state` 値が改ざんされている場合)、コントラクト実行を要求する `execute-contract` コマンドを実行すると、結果として `OK` 以外の値(たとえば、`INCONSISTENT_STATES`)が返されます。ScalarDL がデータ改ざんを検出する方法の例については、以下を参照してください。 + * 資産データが改ざんされていない場合、コントラクト実行を要求する `execute-contract` コマンドを実行すると、結果として `OK` が返されます。 + * アセットデータが改ざんされている場合 (たとえば、データベースの `state` 値が改ざんされている場合) 、コントラクト実行を要求する `execute-contract` コマンドを実行すると、結果として `OK` 以外の値 (たとえば、`INCONSISTENT_STATES`) が返されます。ScalarDL がデータ改ざんを検出する方法の例については、以下を参照してください。 - [コマンド実行結果(資産データが改ざんされた場合)] + [コマンド実行結果 (資産データが改ざんされた場合) ] ```console { @@ -874,7 +875,7 @@ Helm Charts を使用して、Kubernetes クラスターに 2 つの ScalarDL Sc * 資産データが改ざんされていない場合、検証を要求する `validate-ledger` コマンドを実行すると、結果として `OK` が返されます。 * 資産データが改ざんされている場合 (たとえば、データベースの `state` 値が改ざんされている場合)、検証を要求する `validate-ledger` コマンドを実行すると、結果として `OK` 以外の値 (たとえば、`INVALID_OUTPUT`) が返されます。ScalarDL がデータ改ざんを検出する方法の例については、以下を参照してください。 - [コマンド実行結果(資産データが改ざんされた場合)] + [コマンド実行結果 (資産データが改ざんされた場合) ] ```console { @@ -943,6 +944,6 @@ Kubernetes クラスターで ScalarDL Ledger および ScalarDL Auditor テス Scalar 製品の監視またはログ記録を開始する方法については、次のチュートリアルを参照してください。 -* [Helm チャートの使用開始 (Prometheus Operator を使用したモニタリング)](getting-started-monitoring.mdx) -* [Helm チャートの使用開始 (Loki Stack を使用したログ記録)](getting-started-logging.mdx) -* [Helm チャートの使用開始 (Scalar Manager)](getting-started-scalar-manager.mdx) +* [Helm Charts をはじめよう (Prometheus Operator を使用したモニタリング)](getting-started-monitoring.mdx) +* [Helm Charts をはじめよう (Loki Stack を使用したログ記録)](getting-started-logging.mdx) +* [Helm Charts をはじめよう (Scalar Manager)](getting-started-scalar-manager.mdx) diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalardl-auditor-tls.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalardl-auditor-tls.mdx index 06474348..1cd44721 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalardl-auditor-tls.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalardl-auditor-tls.mdx @@ -1,18 +1,19 @@ --- +displayed_sidebar: docsJapanese --- -# Helm チャートの入門 (TLS を使用した ScalarDL Ledger および Auditor / Auditor モード) +# Helm Chart をはじめよう (TLS を使用した ScalarDL Ledger および Auditor / Auditor モード) -このドキュメントでは、Kubernetes クラスター上の Helm Chart をテスト環境として使用して、TLS 構成で ScalarDL Ledger および ScalarDL Auditor を開始する方法について説明します。 ここでは、テスト用の Mac または Linux 環境がすでにあることを前提としています。 このドキュメントでは **minikube** を使用しますが、これから説明する手順はどの Kubernetes クラスターでも機能するはずです。 +このドキュメントでは、Kubernetes クラスター上の Helm Chart をテスト環境として使用して、TLS 構成で ScalarDL Ledger および ScalarDL Auditor を開始する方法について説明します。ここでは、テスト用の Mac または Linux 環境がすでにあることを前提としています。このドキュメントでは **minikube** を使用しますが、これから説明する手順はどの Kubernetes クラスターでも機能するはずです。 ## 要件 -* ScalarDLのライセンスキー(試用ライセンスまたは商用ライセンス)を取得する必要があります。 ライセンス キーをお持ちでない場合は、[お問い合わせ](https://www.scalar-labs.com/contact) してください。 +* ScalarDLのライセンスキー (試用ライセンスまたは商用ライセンス) を取得する必要があります。ライセンスキーをお持ちでない場合は、[お問い合わせ](https://www.scalar-labs.com/contact)してください。 * TLSに対応したScalarDL v3.9以降を使用する必要があります。 :::note -監査によるビザンチン障害検出を適切に機能させるには、ScalarDL Ledger と ScalarDL Auditor を別の管理ドメインに展開して管理する必要があります。 ただし、このチュートリアルでは、テストを容易にするために、ScalarDL Ledger と ScalarDL Auditor を同じ Kubernetes クラスターにデプロイします。 +監査によるビザンチン障害検出を適切に機能させるには、ScalarDL Ledger と ScalarDL Auditor を別の管理ドメインに展開して管理する必要があります。ただし、このチュートリアルでは、テストを容易にするために、ScalarDL Ledger と ScalarDL Auditor を同じ Kubernetes クラスターにデプロイします。 ::: @@ -52,7 +53,7 @@ +-----------------------------------------------------------------------------------------------------------------------------+ ``` -TLS 接続用に次の秘密キーファイルと証明書ファイルを作成します。 +TLS 接続用に次の秘密鍵ファイルと証明書ファイルを作成します。 ``` +----------------------+ @@ -77,7 +78,7 @@ TLS 接続用に次の秘密キーファイルと証明書ファイルを作成 +----------------------+ ``` -各接続で TLS を有効にするために、各秘密キーと証明書ファイルを次のように設定します。 +各接続で TLS を有効にするために、各秘密鍵と証明書ファイルを次のように設定します。 ``` +--------------------------------+ +--------------------------------+ @@ -106,17 +107,17 @@ ScalarDL 関連コンポーネント間には、次の接続があります。 * **`クライアント - ScalarDL Ledger の Envoy`:** 一部のScalarDL APIを実行すると、クライアントはEnvoy for ScalarDL Ledgerにアクセスします。 * **`クライアント - ScalarDL Auditor の Envoy`:** 一部のScalarDL APIを実行すると、クライアントはEnvoy for ScalarDL Auditorにアクセスします。 -* **`ScalarDL Ledgerの Envoy - ScalarDL Ledger`:** Envoy は、ScalarDL Ledger の前で L7 (gRPC) ロード バランサーとして機能します。 -* **`ScalarDL Auditor の Envoy - ScalarDL Auditor`:** Envoy は、ScalarDL Auditor の前で L7 (gRPC) ロード バランサーとして機能します。 +* **`ScalarDL Ledgerの Envoy - ScalarDL Ledger`:** Envoy は、ScalarDL Ledger の前で L7 (gRPC) ロードバランサーとして機能します。 +* **`ScalarDL Auditor の Envoy - ScalarDL Auditor`:** Envoy は、ScalarDL Auditor の前で L7 (gRPC) ロードバランサーとして機能します。 * **`ScalarDL Auditor - ScalarDL Ledger (ScalarDL Ledger) の Envoy`:** ScalarDL がデータの一貫性を保つために回復プロセスを実行する必要がある場合、ScalarDL Auditor は Envoy を介して ScalarDL Lever に対してリクエストを実行します。 -## ステップ 1. Kubernetes クラスターを開始する +## ステップ1. Kubernetes クラスターを開始する -Kubernetes クラスターを準備し、いくつかのツール (`kubectl`、`helm`、`cfssl`、および `cfssljson`) をインストールする必要があります。 インストール方法の詳細については、[Scalar Helm Charts の開始](getting-started-scalar-helm-charts.mdx) を参照してください。 +Kubernetes クラスターを準備し、いくつかのツール (`kubectl`、`helm`、`cfssl`、および `cfssljson`) をインストールする必要があります。インストール方法の詳細については、[Scalar Helm Charts をはじめよう](getting-started-scalar-helm-charts.mdx)を参照してください。 -## ステップ 2. PostgreSQL コンテナーを開始する +## ステップ2. PostgreSQL コンテナーを開始する -ScalarDL Ledger および ScalarDL Auditor は、バックエンドデータベースとして何らかのデータベースシステムを使用する必要があります。 このチュートリアルでは、PostgreSQL を使用します。 +ScalarDL Ledger および ScalarDL Auditor は、バックエンドデータベースとして何らかのデータベースシステムを使用する必要があります。このチュートリアルでは、PostgreSQL を使用します。 次のようにして、Kubernetes クラスターに PostgreSQL をデプロイできます。 @@ -158,9 +159,9 @@ ScalarDL Ledger および ScalarDL Auditor は、バックエンドデータベ postgresql-ledger-0 1/1 Running 0 16s ``` -## ステップ 3. 作業ディレクトリを作成する +## ステップ3. 作業ディレクトリを作成する -いくつかの構成ファイルと秘密キーおよび証明書ファイルをローカルに作成します。 したがって、それらの作業ディレクトリを作成します。 +いくつかの構成ファイルと秘密鍵および証明書ファイルをローカルに作成します。したがって、それらの作業ディレクトリを作成します。 1. 作業ディレクトリを作成します。 @@ -168,9 +169,9 @@ ScalarDL Ledger および ScalarDL Auditor は、バックエンドデータベ mkdir -p ${HOME}/scalardl-test/certs/ ``` -## ステップ 4. 秘密キーおよび証明書ファイルを作成する +## ステップ4. 秘密鍵および証明書ファイルを作成する -秘密キーと証明書ファイルを作成します。 +秘密鍵と証明書ファイルを作成します。 1. 作業ディレクトリを `${HOME}/scalardl-test/certs/` ディレクトリに変更します。 @@ -200,7 +201,7 @@ ScalarDL Ledger および ScalarDL Auditor は、バックエンドデータベ EOF ``` -1. CA の鍵/証明書ファイルを作成します。 +1. CA の秘密鍵/証明書ファイルを作成します。 ```console cfssl gencert -initca ca.json | cfssljson -bare ca @@ -308,25 +309,25 @@ ScalarDL Ledger および ScalarDL Auditor は、バックエンドデータベ EOF ``` -1. Envoy の秘密キーおよび証明書ファイルを作成します。 +1. Envoy の秘密鍵および証明書ファイルを作成します。 ```console cfssl gencert -ca ca.pem -ca-key ca-key.pem -config ca-config.json -profile scalar-test-ca envoy.json | cfssljson -bare envoy ``` -1. ScalarDL Ledger の秘密キーおよび証明書ファイルを作成します。 +1. ScalarDL Ledger の秘密鍵および証明書ファイルを作成します。 ```console cfssl gencert -ca ca.pem -ca-key ca-key.pem -config ca-config.json -profile scalar-test-ca ledger.json | cfssljson -bare ledger ``` -1. ScalarDL Auditor の秘密キーおよび証明書ファイルを作成します。 +1. ScalarDL Auditor の秘密鍵および証明書ファイルを作成します。 ```console cfssl gencert -ca ca.pem -ca-key ca-key.pem -config ca-config.json -profile scalar-test-ca auditor.json | cfssljson -bare auditor ``` -1. 秘密キーおよび証明書ファイルが作成されたことを確認します。 +1. 秘密鍵および証明書ファイルが作成されたことを確認します。 ```console ls -1 @@ -354,9 +355,9 @@ ScalarDL Ledger および ScalarDL Auditor は、バックエンドデータベ ledger.pem ``` -## ステップ 5. Helm チャートを使用して ScalarDL Ledger と ScalarDL Auditor の DB スキーマを作成する +## ステップ5. Helm Charts を使用して ScalarDL Ledger と ScalarDL Auditor の DB スキーマを作成する -Helm Chart を使用して、Kubernetes クラスターに 2 つの ScalarDL Schema Loader ポッドをデプロイします。 ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger と Auditor の DB スキーマを作成します。 +Helm Chart を使用して、Kubernetes クラスターに2つの ScalarDL Schema Loader ポッドをデプロイします。ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger と Auditor の DB スキーマを作成します。 1. 作業ディレクトリを `${HOME}/scalardl-test/` に変更します。 @@ -400,7 +401,7 @@ Helm Chart を使用して、Kubernetes クラスターに 2 つの ScalarDL Sch EOF ``` -1. PostgreSQL for Ledger のユーザー名とパスワードを含むシークレット リソースを作成します。 +1. PostgreSQL for Ledger のユーザー名とパスワードを含むシークレットリソースを作成します。 ```console kubectl create secret generic schema-ledger-credentials-secret \ @@ -409,7 +410,7 @@ Helm Chart を使用して、Kubernetes クラスターに 2 つの ScalarDL Sch -n default ``` -1. PostgreSQL for Auditor のユーザー名とパスワードを含むシークレット リソースを作成します。 +1. PostgreSQL for Auditor のユーザー名とパスワードを含むシークレットリソースを作成します。 ```console kubectl create secret generic schema-auditor-credentials-secret \ @@ -425,13 +426,13 @@ Helm Chart を使用して、Kubernetes クラスターに 2 つの ScalarDL Sch SCALAR_DL_SCHEMA_LOADER_CHART_VERSION=$(helm search repo scalar-labs/schema-loading -l | grep -F "${SCALAR_DL_VERSION}" | awk '{print $2}' | sort --version-sort -r | head -n 1) ``` -1. Ledger 用の ScalarDL スキーマ ローダーをデプロイします。 +1. Ledger 用の ScalarDL Schema Loader をデプロイします。 ```console helm install schema-loader-ledger scalar-labs/schema-loading -f ${HOME}/scalardl-test/schema-loader-ledger-custom-values.yaml --version ${SCALAR_DL_SCHEMA_LOADER_CHART_VERSION} -n default ``` -1. Auditor 用の ScalarDL スキーマ ローダーをデプロイします。 +1. Auditor 用の ScalarDL Schema Loader をデプロイします。 ```console helm install schema-loader-auditor scalar-labs/schema-loading -f ${HOME}/scalardl-test/schema-loader-auditor-custom-values.yaml --version ${SCALAR_DL_SCHEMA_LOADER_CHART_VERSION} -n default @@ -454,7 +455,7 @@ Helm Chart を使用して、Kubernetes クラスターに 2 つの ScalarDL Sch ``` ScalarDL Schema Loader ポッドが **ContainerCreating** または **Running** の場合は、プロセスが完了するまで待ちます (ステータスは **Completed** になります)。 -## ステップ 6. Helm Chart を使用して Kubernetes クラスターに ScalarDL Ledger と ScalarDL Auditor をデプロイする +## ステップ6. Helm Chart を使用して Kubernetes クラスターに ScalarDL Ledger と ScalarDL Auditor をデプロイする 1. ScalarDL Ledger のカスタム値ファイル (`scalardl-ledger-custom-values.yaml`) を作成します。 @@ -569,14 +570,14 @@ Helm Chart を使用して、Kubernetes クラスターに 2 つの ScalarDL Sch EOF ``` -1. ライセンスキーと証明書を環境変数に設定します。 ライセンスキーをお持ちでない場合は、[お問い合わせ](https://www.scalar-labs.com/contact) してください。 +1. ライセンスキーと証明書を環境変数に設定します。ライセンスキーをお持ちでない場合は、[お問い合わせ](https://www.scalar-labs.com/contact)してください。 ```console SCALAR_DL_LICENSE_KEY= SCALAR_DL_LICENSE_CHECK_CERT_PEM= ``` -1. 資格情報とライセンスキーを含むシークレット リソース `ledger-credentials-secret` を作成します。 +1. 資格情報とライセンスキーを含むシークレットリソース `ledger-credentials-secret` を作成します。 ```console kubectl create secret generic ledger-credentials-secret \ @@ -589,7 +590,7 @@ Helm Chart を使用して、Kubernetes クラスターに 2 つの ScalarDL Sch -n default ``` -1. 資格情報とライセンスキーを含むシークレット リソース `auditor-credentials-secret` を作成します。 +1. 資格情報とライセンスキーを含むシークレットリソース `auditor-credentials-secret` を作成します。 ```console kubectl create secret generic auditor-credentials-secret \ @@ -602,14 +603,14 @@ Helm Chart を使用して、Kubernetes クラスターに 2 つの ScalarDL Sch -n default ``` -1. Envoy の秘密キーファイルと証明書ファイルを含むシークレット リソースを作成します。 +1. Envoy の秘密鍵ファイルと証明書ファイルを含むシークレットリソースを作成します。 ```console kubectl create secret generic envoy-tls-cert --from-file=tls.crt=${HOME}/scalardl-test/certs/envoy.pem -n default kubectl create secret generic envoy-tls-key --from-file=tls.key=${HOME}/scalardl-test/certs/envoy-key.pem -n default ``` -1. ScalarDL Ledger の秘密キー、証明書、CA 証明書ファイルを含むシークレット リソースを作成します。 +1. ScalarDL Ledger の秘密鍵、証明書、CA 証明書ファイルを含むシークレットリソースを作成します。 ```console kubectl create secret generic scalardl-ledger-tls-ca --from-file=ca.crt=${HOME}/scalardl-test/certs/ca.pem -n default @@ -617,7 +618,7 @@ Helm Chart を使用して、Kubernetes クラスターに 2 つの ScalarDL Sch kubectl create secret generic scalardl-ledger-tls-key --from-file=tls.key=${HOME}/scalardl-test/certs/ledger-key.pem -n default ``` -1. ScalarDL Auditor の秘密キー、証明書、CA 証明書ファイルを含むシークレット リソースを作成します。 +1. ScalarDL Auditor の秘密鍵、証明書、CA 証明書ファイルを含むシークレットリソースを作成します。 ```console kubectl create secret generic scalardl-auditor-tls-ca --from-file=ca.crt=${HOME}/scalardl-test/certs/ca.pem -n default @@ -626,7 +627,7 @@ Helm Chart を使用して、Kubernetes クラスターに 2 つの ScalarDL Sch kubectl create secret generic scalardl-auditor-tls-ca-for-ledger --from-file=ca.crt=${HOME}/scalardl-test/certs/ca.pem -n default ``` -1. 秘密リソース `auditor-keys` を作成して、`デジタル署名` 認証方法を無効にします。 このドキュメントでは、 `デジタル署名` の代わりに `hmac` 認証方法を使用します。 +1. シークレットリソース `auditor-keys` を作成して、`デジタル署名` 認証方法を無効にします。このドキュメントでは、 `デジタル署名` の代わりに `hmac` 認証方法を使用します。 ```console kubectl create secret generic auditor-keys \ @@ -634,7 +635,7 @@ Helm Chart を使用して、Kubernetes クラスターに 2 つの ScalarDL Sch --from-literal=certificate=dummy-data-to-disable-digital-signature-method \ -n default ``` - 注: 認証方法として `hmac` を使用する場合は、ダミーのシークレット `auditor-key` を作成して、ヘルム チャート側の `デジタル署名` を無効にする必要があります。 + 注: 認証方法として `hmac` を使用する場合は、ダミーのシークレット `auditor-key` を作成して、Helm Chart 側の `デジタル署名` を無効にする必要があります。 1. ScalarDL のチャートのバージョンを設定します。 @@ -713,21 +714,21 @@ Helm Chart を使用して、Kubernetes クラスターに 2 つの ScalarDL Sch :::note -`scalardl-ledger-headless`、`scalardl-auditor-headless`、`postgresql-ledger-hl`、`postgresql-auditor-hl` の `CLUSTER-IP` の値は、IP アドレスがないため `None` になります。 。 +`scalardl-ledger-headless`、`scalardl-auditor-headless`、`postgresql-ledger-hl`、`postgresql-auditor-hl` の `CLUSTER-IP` の値は、IP アドレスがないため `None` になります。。 ::: -## ステップ 7. クライアントコンテナを開始する +## ステップ7. クライアントコンテナを開始する -クライアントコンテナでCAの証明書ファイルを使用します。 そこで、シークレット リソースを作成し、クライアント コンテナにマウントします。 +クライアントコンテナでCAの証明書ファイルを使用します。そこで、シークレットリソースを作成し、クライアントコンテナにマウントします。 -1. シークレット リソース `client-ca-cert` を作成します。 +1. シークレットリソース `client-ca-cert` を作成します。 ```console kubectl create secret generic client-ca-cert --from-file=certificate=${HOME}/scalardl-test/certs/ca.pem -n default ``` -1. クライアント ポッドのマニフェスト ファイル (`scalardl-client-pod.yaml`) を作成します。 +1. クライアントポッドのマニフェストファイル (`scalardl-client-pod.yaml`) を作成します。 ```console cat << 'EOF' > ${HOME}/scalardl-test/scalardl-client-pod.yaml @@ -757,13 +758,13 @@ Helm Chart を使用して、Kubernetes クラスターに 2 つの ScalarDL Sch EOF ``` -1. マニフェスト ファイルに ScalarDL のバージョンを設定します。 +1. マニフェストファイルに ScalarDL のバージョンを設定します。 ```console sed -i s/SCALAR_DL_CLIENT_POD_SCALAR_DL_VERSION/${SCALAR_DL_VERSION}/ ${HOME}/scalardl-test/scalardl-client-pod.yaml ``` -1. クライアント ポッドをデプロイします。 +1. クライアントポッドをデプロイします。 ```console kubectl apply -f ${HOME}/scalardl-test/scalardl-client-pod.yaml -n default @@ -782,9 +783,9 @@ Helm Chart を使用して、Kubernetes クラスターに 2 つの ScalarDL Sch scalardl-client 1/1 Running 0 4s ``` -## ステップ 8. クライアント コンテナで ScalarDL サンプル コントラクトを実行する +## ステップ8. クライアントコンテナで ScalarDL サンプルコントラクトを実行する -以下に最低限の手順を説明します。 ScalarDL LedgerとScalarDL Auditorについて詳しく知りたい場合は、以下のドキュメントを参照してください。 +以下に最低限の手順を説明します。ScalarDL LedgerとScalarDL Auditorについて詳しく知りたい場合は、以下のドキュメントを参照してください。 * [ScalarDL 入門](https://scalardl.scalar-labs.com/docs/latest/getting-started/) * [ScalarDL Auditor 入門](https://scalardl.scalar-labs.com/docs/latest/getting-started-auditor/) @@ -902,7 +903,7 @@ Helm Chart を使用して、Kubernetes クラスターに 2 つの ScalarDL Sch ```console ./scalardl-java-client-sdk-${SCALAR_DL_VERSION}/bin/scalardl execute-contract --config ./client.properties --contract-id StateUpdater --contract-argument '{"asset_id": "test_asset", "state": 3}' ``` - このサンプル コントラクトは、`test_asset` という名前のアセットの `state` (値) を `3` に更新します。 + このサンプルコントラクトは、`test_asset` という名前のアセットの `state` (値) を `3` に更新します。 1. コントラクト `StateReader` を実行します。 @@ -928,7 +929,7 @@ Helm Chart を使用して、Kubernetes クラスターに 2 つの ScalarDL Sch * 資産データが改ざんされていない場合、`execute-contract` コマンドを実行してコントラクトの実行を要求すると、結果として `OK` が返されます。 * 資産データが改ざんされている場合 (たとえば、データベース内の `state` 値が改ざんされている場合)、コントラクトの実行を要求する `execute-contract` コマンドを実行すると、実行結果として `OK` 以外の値が返されます (たとえば、 `INCONSISTENT_STATES`)。ScalarDL がデータ改ざんを検出する方法の例として、以下を参照してください。 - [コマンド実行結果(資産データが改ざんされている場合)] + [コマンド実行結果 (資産データが改ざんされている場合) ] ```console { @@ -968,9 +969,9 @@ Helm Chart を使用して、Kubernetes クラスターに 2 つの ScalarDL Sch ### 参考情報 * 資産データが改ざんされていない場合、`validate-ledger` コマンドを実行して検証を要求すると、結果として `OK` が返されます。 - * 資産データが改ざんされている場合 (たとえば、データベース内の `state` 値が改ざんされている場合)、`validate-ledger` コマンドを実行して検証を要求すると、実行結果として `OK` 以外の値が返されます (たとえば、`INVALID_OUTPUT`)。 ScalarDL がデータ改ざんを検出する方法の例として、以下を参照してください。 + * 資産データが改ざんされている場合 (たとえば、データベース内の `state` 値が改ざんされている場合)、`validate-ledger` コマンドを実行して検証を要求すると、実行結果として `OK` 以外の値が返されます (たとえば、`INVALID_OUTPUT`)。ScalarDL がデータ改ざんを検出する方法の例として、以下を参照してください。 - [コマンド実行結果(資産データが改ざんされている場合)] + [コマンド実行結果 (資産データが改ざんされている場合) ] ```console { @@ -979,7 +980,7 @@ Helm Chart を使用して、Kubernetes クラスターに 2 つの ScalarDL Sch } ``` -## ステップ 9. すべてのリソースを削除する +## ステップ9. すべてのリソースを削除する Kubernetes クラスターで ScalarDL Ledger テストと ScalarDL Auditor テストを完了したら、すべてのリソースを削除します。 @@ -1001,7 +1002,7 @@ Kubernetes クラスターで ScalarDL Ledger テストと ScalarDL Auditor テ kubectl delete secrets envoy-tls-key envoy-tls-cert schema-ledger-credentials-secret schema-auditor-credentials-secret ledger-credentials-secret scalardl-ledger-tls-ca scalardl-ledger-tls-cert scalardl-ledger-tls-key auditor-credentials-secret auditor-keys scalardl-auditor-tls-ca scalardl-auditor-tls-cert scalardl-auditor-tls-key scalardl-auditor-tls-ca-for-ledger client-ca-cert ``` -1. 作業ディレクトリとサンプル ファイル (構成ファイル、秘密キー、および証明書) を削除します。 +1. 作業ディレクトリとサンプルファイル (構成ファイル、秘密鍵、および証明書) を削除します。 ```console cd ${HOME} @@ -1015,6 +1016,6 @@ Kubernetes クラスターで ScalarDL Ledger テストと ScalarDL Auditor テ Scalar 製品の監視またはログ記録を開始する方法については、次のドキュメントで説明しています。 -* [Helm Charts の入門 (Prometheus Operator を使用したモニタリング)](getting-started-monitoring.mdx) -* [Helm Charts の入門 (Loki スタックを使用したロギング)](getting-started-logging.mdx) -* [Helm Charts の入門 (Scalar Manager)](getting-started-scalar-manager.mdx) +* [Helm Charts をはじめよう (Prometheus Operator を使用したモニタリング)](getting-started-monitoring.mdx) +* [Helm Charts をはじめよう (Loki スタックを使用したロギング)](getting-started-logging.mdx) +* [Helm Charts をはじめよう (Scalar Manager)](getting-started-scalar-manager.mdx) diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalardl-auditor.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalardl-auditor.mdx index ee22d881..bce1670c 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalardl-auditor.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalardl-auditor.mdx @@ -1,13 +1,14 @@ --- +displayed_sidebar: docsJapanese --- -# Helm Charts の入門 (ScalarDL Ledger と Auditor / Auditor モード) +# Helm Charts をはじめよう (ScalarDL Ledger と Auditor / Auditor モード) import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、Kubernetes クラスター上の Helm Chart をテスト環境として使用して、ScalarDL Ledger および Auditor を開始する方法について説明します。 ここでは、テスト用の Mac または Linux 環境がすでにあることを前提としています。 このドキュメントでは **Minikube** を使用しますが、これから説明する手順はどの Kubernetes クラスターでも機能するはずです。 +このドキュメントでは、Kubernetes クラスター上の Helm Chart をテスト環境として使用して、ScalarDL Ledger および Auditor を開始する方法について説明します。ここでは、テスト用の Mac または Linux 環境がすでにあることを前提としています。このドキュメントでは **Minikube** を使用しますが、これから説明する手順はどの Kubernetes クラスターでも機能するはずです。 ## 要件 @@ -30,7 +31,7 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; * [How to install Scalar products through Azure Marketplace](../scalar-kubernetes/AzureMarketplaceGuide.mdx) ## 注記 -監査によるビザンチン障害検出を適切に機能させるには、Ledger と Auditor を異なる管理ドメインに展開して管理する必要があります。 ただし、このガイドでは、テストを容易にするために、Ledger と Auditor を同じ Kubernetes クラスターにデプロイします。 +監査によるビザンチン障害検出を適切に機能させるには、Ledger と Auditor を異なる管理ドメインに展開して管理する必要があります。ただし、このガイドでは、テストを容易にするために、Ledger と Auditor を同じ Kubernetes クラスターにデプロイします。 ## 私たちが作るもの @@ -68,13 +69,13 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; +-----------------------------------------------------------------------------------------------------------------------------+ ``` -## ステップ 1. Kubernetes クラスターを開始する +## ステップ1. Kubernetes クラスターを開始する -まず、Kubernetes クラスターを準備する必要があります。 **minikube** 環境を使用する場合は、[Scalar Helm Charts の入門] (./getting-started-scalar-helm-charts.mdx)を参照してください。 すでに Kubernetes クラスターを開始している場合は、この手順をスキップできます。 +まず、Kubernetes クラスターを準備する必要があります。**minikube** 環境を使用する場合は、[Scalar Helm Charts をはじめよう](./getting-started-scalar-helm-charts.mdx)を参照してください。すでに Kubernetes クラスターを開始している場合は、この手順をスキップできます。 -## ステップ 2. PostgreSQL コンテナーを開始する +## ステップ2. PostgreSQL コンテナーを開始する -ScalarDL Ledger と Auditor は、バックエンド データベースとして何らかのデータベース システムを使用します。 このドキュメントでは PostgreSQL を使用します。 +ScalarDL Ledger と Auditor は、バックエンドデータベースとして何らかのデータベースシステムを使用します。このドキュメントでは PostgreSQL を使用します。 次のようにして、Kubernetes クラスターに PostgreSQL をデプロイできます。 @@ -108,18 +109,18 @@ ScalarDL Ledger と Auditor は、バックエンド データベースとして postgresql-ledger-0 1/1 Running 0 16s ``` -## ステップ 3. 作業ディレクトリを作成する +## ステップ3. 作業ディレクトリを作成する -いくつかの構成ファイルとキー/証明書ファイルをローカルに作成します。 したがって、それらの作業ディレクトリを作成します。 +いくつかの構成ファイルとキー/証明書ファイルをローカルに作成します。したがって、それらの作業ディレクトリを作成します。 1. 作業ディレクトリを作成します。 ```console mkdir -p ~/scalardl-test/certs/ ``` -## ステップ 4. 秘密鍵/証明書ファイルを作成する +## ステップ4. 秘密鍵/証明書ファイルを作成する -注記:このガイドでは、テストに自己署名証明書を使用します。 ただし、これらの証明書を運用環境では使用しないことを強くお勧めします。 +注記:このガイドでは、テストに自己署名証明書を使用します。ただし、これらの証明書を運用環境では使用しないことを強くお勧めします。 1. 作業ディレクトリを `~/scalardl-test/certs/` ディレクトリに変更します。 ```console @@ -230,9 +231,9 @@ ScalarDL Ledger と Auditor は、バックエンド データベースとして ledger.pem ``` -## ステップ 5. Helm Charts を使用して ScalarDL Ledger と ScalarDL Auditor の DB スキーマを作成する +## ステップ5. Helm Charts を使用して ScalarDL Ledger と ScalarDL Auditor の DB スキーマを作成する -Helm Chart を使用して、Kubernetes クラスターに 2 つの ScalarDL Schema Loader ポッドをデプロイします。 +Helm Chart を使用して、Kubernetes クラスターに2つの ScalarDL Schema Loader ポッドをデプロイします。 ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger と Auditor の DB スキーマを作成します。 1. 作業ディレクトリを `~/scalardl-test/` に変更します。 @@ -245,7 +246,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger と Auditor の DB helm repo add scalar-labs https://scalar-labs.github.io/helm-charts ``` -1. AWS/Azure Marketplace から ScalarDL コンテナー イメージをプルするためのシークレット リソースを作成します。 +1. AWS/Azure Marketplace から ScalarDL コンテナーイメージをプルするためのシークレットリソースを作成します。 * AWS Marketplace ```console kubectl create secret docker-registry reg-ecr-mp-secrets \ @@ -262,7 +263,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger と Auditor の DB ``` 詳細については、以下のドキュメントを参照してください。 - + * [How to install Scalar products through AWS Marketplace](../scalar-kubernetes/AwsMarketplaceGuide.mdx) * [How to install Scalar products through Azure Marketplace](../scalar-kubernetes/AzureMarketplaceGuide.mdx) @@ -288,7 +289,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger と Auditor の DB ``` * Azure Marketplace - + ```console cat << 'EOF' > ~/scalardl-test/schema-loader-ledger-custom-values.yaml schemaLoading: @@ -329,7 +330,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger と Auditor の DB ``` * Azure Marketplace - + ```console cat << 'EOF' > ~/scalardl-test/schema-loader-auditor-custom-values.yaml schemaLoading: @@ -348,14 +349,14 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger と Auditor の DB EOF ``` -1. PostgreSQL for Ledger のユーザー名とパスワードを含むシークレット リソースを作成します。 +1. PostgreSQL for Ledger のユーザー名とパスワードを含むシークレットリソースを作成します。 ```console kubectl create secret generic ledger-credentials-secret \ --from-literal=SCALAR_DL_LEDGER_POSTGRES_USERNAME=postgres \ --from-literal=SCALAR_DL_LEDGER_POSTGRES_PASSWORD=postgres ``` -1. PostgreSQL for Auditor のユーザー名とパスワードを含むシークレット リソースを作成します。 +1. PostgreSQL for Auditor のユーザー名とパスワードを含むシークレットリソースを作成します。 ```console kubectl create secret generic auditor-credentials-secret \ --from-literal=SCALAR_DL_AUDITOR_POSTGRES_USERNAME=postgres \ @@ -386,7 +387,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger と Auditor の DB ``` ScalarDL Schema Loader ポッドが **ContainerCreating** または **Running** の場合は、プロセスが完了するまで待ちます (STATUS は **Completed** になります)。 -## ステップ 6. Helm Chart を使用して Kubernetes クラスターに ScalarDL Ledger と Auditor をデプロイする +## ステップ6. Helm Chart を使用して Kubernetes クラスターに ScalarDL Ledger と Auditor をデプロイする 1. ScalarDL Ledger のカスタム値ファイル (scalardl-ledger-custom-values.yaml) を作成します。 * AWS Marketplace @@ -399,7 +400,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger と Auditor の DB version: "1.3.0" imagePullSecrets: - name: "reg-ecr-mp-secrets" - + ledger: image: repository: "709825985650.dkr.ecr.us-east-1.amazonaws.com/scalar/scalar-ledger" @@ -436,7 +437,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger と Auditor の DB version: "1.3.0" imagePullSecrets: - name: "reg-acr-secrets" - + ledger: image: repository: "/scalarinc/scalar-ledger" @@ -473,7 +474,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger と Auditor の DB version: "1.3.0" imagePullSecrets: - name: "reg-ecr-mp-secrets" - + auditor: image: repository: "709825985650.dkr.ecr.us-east-1.amazonaws.com/scalar/scalar-auditor" @@ -510,7 +511,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger と Auditor の DB version: "1.3.0" imagePullSecrets: - name: "reg-acr-secrets" - + auditor: image: repository: "/scalarinc/scalar-auditor" @@ -537,12 +538,12 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger と Auditor の DB EOF ``` -1. 秘密リソース `ledger-keys` を作成します。 +1. シークレットリソース `ledger-keys` を作成します。 ```console kubectl create secret generic ledger-keys --from-file=certificate=./certs/ledger.pem --from-file=private-key=./certs/ledger-key.pem ``` -1. 秘密リソース `auditor-keys` を作成します。 +1. シークレットリソース `auditor-keys` を作成します。 ```console kubectl create secret generic auditor-keys --from-file=certificate=./certs/auditor.pem --from-file=private-key=./certs/auditor-key.pem ``` @@ -604,18 +605,18 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger と Auditor の DB scalardl-ledger-headless ClusterIP None 50051/TCP,50053/TCP,50052/TCP 61s scalardl-ledger-metrics ClusterIP 10.99.122.106 8080/TCP 61s ``` - ScalarDL Ledger サービスと Auditor サービスが適切にデプロイされている場合は、CLUSTER-IP 列にプライベート IP アドレスが表示されます。 (注記: `scalardl-ledger-headless` と `scalardl-auditor-headless` には CLUSTER-IP がありません。) + ScalarDL Ledger サービスと Auditor サービスが適切にデプロイされている場合は、CLUSTER-IP 列にプライベート IP アドレスが表示されます。(注記: `scalardl-ledger-headless` と `scalardl-auditor-headless` には CLUSTER-IP がありません。) -## ステップ 7. クライアントコンテナを開始する +## ステップ7. クライアントコンテナを開始する -クライアントコンテナで証明書ファイルを使用します。 そこで、シークレット リソースを作成し、クライアント コンテナにマウントします。 +クライアントコンテナで証明書ファイルを使用します。そこで、シークレットリソースを作成し、クライアントコンテナにマウントします。 -1. 秘密リソース `client-keys` を作成します。 +1. シークレットリソース `client-keys` を作成します。 ``` kubectl create secret generic client-keys --from-file=certificate=./certs/client.pem --from-file=private-key=./certs/client-key.pem ``` -1. Kubernetes クラスター上でクライアント コンテナーを起動します。 +1. Kubernetes クラスター上でクライアントコンテナーを起動します。 ```console cat << 'EOF' | kubectl apply -f - apiVersion: v1 @@ -648,7 +649,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger と Auditor の DB - name: "client-keys" secret: secretName: "client-keys" - restartPolicy: Never + restartPolicy: Never EOF ``` @@ -662,21 +663,21 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger と Auditor の DB scalardl-client 1/1 Running 0 4s ``` -## ステップ 8. クライアント コンテナで ScalarDL サンプル コントラクトを実行する +## ステップ8. クライアントコンテナで ScalarDL サンプルコントラクトを実行する -以下に最低限の手順を説明します。 ScalarDL Ledger とAuditor について詳しく知りたい場合は、以下のドキュメントを参照してください。 +以下に最低限の手順を説明します。ScalarDL Ledger と Auditor について詳しく知りたい場合は、以下のドキュメントを参照してください。 * [Getting Started with ScalarDL](https://scalardl.scalar-labs.com/ja-jp/docs/latest/getting-started) * [Getting Started with ScalarDL Auditor](https://scalardl.scalar-labs.com/ja-jp/docs/latest/getting-started-auditor) -Auditor を使用する場合、クライアントアプリケーションを起動する前に Ledger と Auditor の証明書を登録する必要があります。 Ledger はその証明書を Auditor に登録する必要があり、Auditor はその証明書を Ledger に登録する必要があります。 +Auditor を使用する場合、クライアントアプリケーションを起動する前に Ledger と Auditor の証明書を登録する必要があります。Ledger はその証明書を Auditor に登録する必要があり、Auditor はその証明書を Ledger に登録する必要があります。 1. クライアントコンテナで bash を実行します。 ```console kubectl exec -it scalardl-client -- bash ``` - この手順の後、クライアント コンテナで各コマンドを実行します。 + この手順の後、クライアントコンテナで各コマンドを実行します。 -1. git、curl、および unzip コマンドをクライアント コンテナにインストールします。 +1. git、curl、および unzip コマンドをクライアントコンテナにインストールします。 ```console apt update && apt install -y git curl unzip ``` @@ -711,7 +712,7 @@ Auditor を使用する場合、クライアントアプリケーションを起 master * v3.6.0 ``` - 別のバージョンを使用する場合は、使用するバージョン(タグ)を指定してください。 同じバージョンの ScalarDL Ledger と ScalarDL Java Client SDK を使用する必要があります。 + 別のバージョンを使用する場合は、使用するバージョン (タグ) を指定してください。同じバージョンの ScalarDL Ledger と ScalarDL Java Client SDK を使用する必要があります。 1. サンプルコントラクトを作成します。 ```console @@ -734,11 +735,11 @@ Auditor を使用する場合、クライアントアプリケーションを起 cat << 'EOF' > ledger.as.client.properties # Ledger scalar.dl.client.server.host=scalardl-ledger-envoy.default.svc.cluster.local - + # Auditor scalar.dl.client.auditor.enabled=true scalar.dl.client.auditor.host=scalardl-auditor-envoy.default.svc.cluster.local - + # Certificate scalar.dl.client.cert_holder_id=ledger scalar.dl.client.cert_path=/keys/ledger/certificate @@ -751,11 +752,11 @@ Auditor を使用する場合、クライアントアプリケーションを起 cat << 'EOF' > auditor.as.client.properties # Ledger scalar.dl.client.server.host=scalardl-ledger-envoy.default.svc.cluster.local - + # Auditor scalar.dl.client.auditor.enabled=true scalar.dl.client.auditor.host=scalardl-auditor-envoy.default.svc.cluster.local - + # Certificate scalar.dl.client.cert_holder_id=auditor scalar.dl.client.cert_path=/keys/auditor/certificate @@ -768,11 +769,11 @@ Auditor を使用する場合、クライアントアプリケーションを起 cat << 'EOF' > client.properties # Ledger scalar.dl.client.server.host=scalardl-ledger-envoy.default.svc.cluster.local - + # Auditor scalar.dl.client.auditor.enabled=true scalar.dl.client.auditor.host=scalardl-auditor-envoy.default.svc.cluster.local - + # Certificate scalar.dl.client.cert_holder_id=client scalar.dl.client.cert_path=/keys/client/certificate @@ -814,7 +815,7 @@ Auditor を使用する場合、クライアントアプリケーションを起 ```console ./scalardl-java-client-sdk-3.6.0/bin/execute-contract --properties ./client.properties --contract-id StateUpdater --contract-argument '{"asset_id": "test_asset", "state": 3}' ``` - このサンプル コントラクトは、`test_asset` という名前のアセットの `state` (値) を `3` に更新します。 + このサンプルコントラクトは、`test_asset` という名前のアセットの `state` (値) を `3` に更新します。 1. コントラクト `StateReader` を実行します。 ```console @@ -832,9 +833,9 @@ Auditor を使用する場合、クライアントアプリケーションを起 } ``` * 参考情報 - * 資産データが改ざんされていない場合、コントラクト実行要求(execute-contract コマンド)は結果として `OK` を返します。 - * 資産データが改ざんされている場合(例:DBの `state` 値が改ざんされている場合)、コントラクト実行要求(execute-contract コマンド)は結果として `OK` 以外の値(例:`INCONSISTENT_STATES`)を返す , 以下のような感じです。 - 【コマンド実行結果(資産データが改ざんされた場合)】 + * 資産データが改ざんされていない場合、コントラクト実行要求 (execute-contract コマンド) は結果として `OK` を返します。 + * 資産データが改ざんされている場合 (例: DB の `state` 値が改ざんされている場合) 、コントラクト実行要求 (execute-contract コマンド) は結果として `OK` 以外の値 (例:`INCONSISTENT_STATES`) を返す , 以下のような感じです。 + 【コマンド実行結果 (資産データが改ざんされた場合) 】 ```console { "status_code" : "INCONSISTENT_STATES", @@ -868,9 +869,9 @@ Auditor を使用する場合、クライアントアプリケーションを起 } ``` * 参考情報 - * 資産データが改ざんされていない場合、検証リクエスト(validate-ledger コマンド)は結果として `OK` を返します。 - * 資産データが改ざんされている場合(例:DBの `state` 値が改ざんされている場合)、検証リクエスト(validate-ledger コマンド)は結果として `OK` 以外の値(例: `INVALID_OUTPUT`)を返します。 以下のような。 - 【コマンド実行結果(資産データが改ざんされた場合)】 + * 資産データが改ざんされていない場合、検証リクエスト (validate-ledger コマンド) は結果として `OK` を返します。 + * 資産データが改ざんされている場合 (例: DB の `state` 値が改ざんされている場合) 、検証リクエスト (validate-ledger コマンド) は結果として `OK` 以外の値 (例: `INVALID_OUTPUT`) を返します。以下のような。 + 【コマンド実行結果 (資産データが改ざんされた場合) 】 ```console { "status_code" : "INCONSISTENT_STATES", @@ -879,7 +880,7 @@ Auditor を使用する場合、クライアントアプリケーションを起 ``` * このようにして、ScalarDL Ledger はデータの改ざんを検出できます。 -## ステップ 9. すべてのリソースを削除する +## ステップ9. すべてのリソースを削除する Kubernetes クラスターで ScalarDL Ledger テストを完了したら、すべてのリソースを削除します。 @@ -893,7 +894,7 @@ Kubernetes クラスターで ScalarDL Ledger テストを完了したら、す kubectl delete pod scalardl-client --force --grace-period 0 ``` -1. 作業ディレクトリとサンプル ファイル (構成ファイル、キー、証明書) を削除します。 +1. 作業ディレクトリとサンプルファイル (構成ファイル、秘密鍵、証明書) を削除します。 ```console cd ~ ``` @@ -905,6 +906,6 @@ Kubernetes クラスターで ScalarDL Ledger テストを完了したら、す Scalar 製品の監視またはログ記録を開始する方法については、次のドキュメントで説明しています。 -* [Helm Charts の入門 (Prometheus Operator を使用したモニタリング)](getting-started-monitoring.mdx) -* [Helm Charts の入門 (Loki スタックを使用したロギング)](getting-started-logging.mdx) -* [Helm Charts の入門 (Scalar Manager)](getting-started-scalar-manager.mdx) +* [Helm Charts をはじめよう (Prometheus Operator を使用したモニタリング)](getting-started-monitoring.mdx) +* [Helm Charts をはじめよう (Loki スタックを使用したロギング)](getting-started-logging.mdx) +* [Helm Charts をはじめよう (Scalar Manager)](getting-started-scalar-manager.mdx) diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalardl-ledger.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalardl-ledger.mdx index c42dba26..8e006230 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalardl-ledger.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/getting-started-scalardl-ledger.mdx @@ -1,13 +1,14 @@ --- +displayed_sidebar: docsJapanese --- -# Helm Charts の入門 (ScalarDL Ledger / Ledger のみ) +# Helm Charts をはじめよう (ScalarDL Ledger / Ledger のみ) import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、Kubernetes クラスター上の Helm Chart をテスト環境として使用して、ScalarDL Ledger を開始する方法について説明します。 ここでは、テスト用の Mac または Linux 環境がすでにあることを前提としています。 このドキュメントでは **Minikube** を使用しますが、これから説明する手順はどの Kubernetes クラスターでも機能するはずです。 +このドキュメントでは、Kubernetes クラスター上の Helm Chart をテスト環境として使用して、ScalarDL Ledger を開始する方法について説明します。ここでは、テスト用の Mac または Linux 環境がすでにあることを前提としています。このドキュメントでは **Minikube** を使用しますが、これから説明する手順はどの Kubernetes クラスターでも機能するはずです。 ## 要件 @@ -50,13 +51,13 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; +--------------------------------------------------------------------------------------------------------------------------------------+ ``` -## ステップ 1. Kubernetes クラスターを開始する +## ステップ1. Kubernetes クラスターを開始する -まず、Kubernetes クラスターを準備する必要があります。 **minikube** 環境を使用する場合は、[Scalar Helm Charts の入門](./getting-started-scalar-helm-charts.mdx) を参照してください。 すでに Kubernetes クラスターを開始している場合は、この手順をスキップできます。 +まず、Kubernetes クラスターを準備する必要があります。**minikube** 環境を使用する場合は、[Scalar Helm Charts をはじめよう](./getting-started-scalar-helm-charts.mdx)を参照してください。すでに Kubernetes クラスターを開始している場合は、この手順をスキップできます。 -## ステップ 2. PostgreSQL コンテナーを開始する +## ステップ2. PostgreSQL コンテナーを開始する -ScalarDL Ledger は、バックエンド データベースとして何らかのデータベース システムを使用します。 このドキュメントでは PostgreSQL を使用します。 +ScalarDL Ledger は、バックエンドデータベースとして何らかのデータベースシステムを使用します。このドキュメントでは PostgreSQL を使用します。 次のようにして、Kubernetes クラスターに PostgreSQL をデプロイできます。 @@ -82,18 +83,18 @@ ScalarDL Ledger は、バックエンド データベースとして何らかの postgresql-ledger-0 1/1 Running 0 11s ``` -## ステップ 3. 作業ディレクトリを作成する +## ステップ3. 作業ディレクトリを作成する -いくつかの構成ファイルとキー/証明書ファイルをローカルに作成します。 したがって、それらの作業ディレクトリを作成します。 +いくつかの構成ファイルとキー/証明書ファイルをローカルに作成します。したがって、それらの作業ディレクトリを作成します。 1. 作業ディレクトリを作成します。 ```console mkdir -p ~/scalardl-test/certs/ ``` -## ステップ 4. キー/証明書ファイルを作成する +## ステップ4. キー/証明書ファイルを作成する -注記:このガイドでは、テストに自己署名証明書を使用します。 ただし、これらの証明書を運用環境では使用しないことを強くお勧めします。 +注記:このガイドでは、テストに自己署名証明書を使用します。ただし、これらの証明書を運用環境では使用しないことを強くお勧めします。 1. 作業ディレクトリを `~/scalardl-test/certs/` ディレクトリに変更します。 ```console @@ -172,7 +173,7 @@ ScalarDL Ledger は、バックエンド データベースとして何らかの ledger.pem ``` -## ステップ 5. Helm Charts を使用して ScalarDL Ledger の DB スキーマを作成する +## ステップ5. Helm Charts を使用して ScalarDL Ledger の DB スキーマを作成する Helm Charts を使用して、ScalarDL Schema Loader を Kubernetes クラスターにデプロイします。 ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger の DB スキーマを作成します。 @@ -187,7 +188,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger の DB スキーマ helm repo add scalar-labs https://scalar-labs.github.io/helm-charts ``` -1. AWS/Azure Marketplace から ScalarDL コンテナー イメージをプルするためのシークレット リソースを作成します。 +1. AWS/Azure Marketplace から ScalarDL コンテナーイメージをプルするためのシークレットリソースを作成します。 * AWS Marketplace ```console kubectl create secret docker-registry reg-ecr-mp-secrets \ @@ -204,7 +205,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger の DB スキーマ ``` 詳細については、以下のドキュメントを参照してください。 - + * [How to install Scalar products through AWS Marketplace](../scalar-kubernetes/AwsMarketplaceGuide.mdx) * [How to install Scalar products through Azure Marketplace](../scalar-kubernetes/AzureMarketplaceGuide.mdx) @@ -249,7 +250,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger の DB スキーマ EOF ``` -1. PostgreSQL のユーザー名とパスワードを含むシークレット リソースを作成します。 +1. PostgreSQL のユーザー名とパスワードを含むシークレットリソースを作成します。 ```console kubectl create secret generic ledger-credentials-secret \ --from-literal=SCALAR_DL_LEDGER_POSTGRES_USERNAME=postgres \ @@ -273,7 +274,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger の DB スキーマ ``` ScalarDL Schema Loader ポッドが **ContainerCreating** または **Running** の場合は、プロセスが完了するまで待ちます (STATUS は **Completed** になります)。 -## ステップ 6. Helm Charts を使用して Kubernetes クラスターに ScalarDL Ledger をデプロイする +## ステップ6. Helm Charts を使用して Kubernetes クラスターに ScalarDL Ledger をデプロイする 1. ScalarDL Ledger のカスタム値ファイル (scalardl-ledger-custom-values.yaml) を作成します。 * AWS Marketplace @@ -286,7 +287,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger の DB スキーマ version: "1.3.0" imagePullSecrets: - name: "reg-ecr-mp-secrets" - + ledger: image: repository: "709825985650.dkr.ecr.us-east-1.amazonaws.com/scalar/scalar-ledger" @@ -322,7 +323,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger の DB スキーマ version: "1.3.0" imagePullSecrets: - name: "reg-acr-secrets" - + ledger: image: repository: "/scalarinc/scalar-ledger" @@ -348,7 +349,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger の DB スキーマ EOF ``` -1. 秘密リソース `ledger-keys` を作成します。 +1. シークレットリソース `ledger-keys` を作成します。 ```console kubectl create secret generic ledger-keys --from-file=private-key=./certs/ledger-key.pem ``` @@ -391,18 +392,18 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger の DB スキーマ scalardl-ledger-headless ClusterIP None 50051/TCP,50053/TCP,50052/TCP 83s scalardl-ledger-metrics ClusterIP 10.98.4.217 8080/TCP 83s ``` - ScalarDL Ledger サービスが適切にデプロイされている場合は、CLUSTER-IP 列にプライベート IP アドレスが表示されます。 (注記: `scalardl-ledger-headless` には CLUSTER-IP がありません。) + ScalarDL Ledger サービスが適切にデプロイされている場合は、CLUSTER-IP 列にプライベート IP アドレスが表示されます。(注記: `scalardl-ledger-headless` には CLUSTER-IP がありません。) -## ステップ 7. クライアントコンテナを開始する +## ステップ7. クライアントコンテナを開始する -クライアントコンテナで証明書ファイルを使用します。 そこで、シークレット リソースを作成し、クライアント コンテナにマウントします。 +クライアントコンテナで証明書ファイルを使用します。そこで、シークレットリソースを作成し、クライアントコンテナにマウントします。 -1. 秘密リソース `client-keys` を作成します。 +1. シークレットリソース `client-keys` を作成します。 ``` kubectl create secret generic client-keys --from-file=certificate=./certs/client.pem --from-file=private-key=./certs/client-key.pem ``` -1. Kubernetes クラスター上でクライアント コンテナーを起動します。 +1. Kubernetes クラスター上でクライアントコンテナーを起動します。 ```console cat << 'EOF' | kubectl apply -f - apiVersion: v1 @@ -423,7 +424,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger の DB スキーマ - name: "client-keys" secret: secretName: "client-keys" - restartPolicy: Never + restartPolicy: Never EOF ``` @@ -437,17 +438,17 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger の DB スキーマ scalardl-client 1/1 Running 0 11s ``` -## ステップ 8. クライアント コンテナで ScalarDL サンプル コントラクトを実行する +## ステップ8. クライアントコンテナで ScalarDL サンプルコントラクトを実行する -以下に最低限の手順を説明します。 ScalarDL の詳細やコントラクトについて知りたい場合は、[Getting Started with ScalarDL](https://scalardl.scalar-labs.com/ja-jp/docs/latest/getting-started) をご覧ください。 +以下に最低限の手順を説明します。ScalarDL の詳細やコントラクトについて知りたい場合は、[Getting Started with ScalarDL](https://scalardl.scalar-labs.com/ja-jp/docs/latest/getting-started) をご覧ください。 1. クライアントコンテナで bash を実行します。 ```console kubectl exec -it scalardl-client -- bash ``` - この手順の後、クライアント コンテナで各コマンドを実行します。 + この手順の後、クライアントコンテナで各コマンドを実行します。 -1. git、curl、および unzip コマンドをクライアント コンテナにインストールします。 +1. git、curl、および unzip コマンドをクライアントコンテナにインストールします。 ```console apt update && apt install -y git curl unzip ``` @@ -482,7 +483,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger の DB スキーマ master * v3.6.0 ``` - 別のバージョンを使用する場合は、使用するバージョン(タグ)を指定してください。 同じバージョンの ScalarDL Ledger と ScalarDL Java Client SDK を使用する必要があります。 + 別のバージョンを使用する場合は、使用するバージョン (タグ) を指定してください。同じバージョンの ScalarDL Ledger と ScalarDL Java Client SDK を使用する必要があります。 1. サンプルコントラクトを作成します。 ```console @@ -529,7 +530,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger の DB スキーマ ```console ./scalardl-java-client-sdk-3.6.0/bin/execute-contract --properties ./client.properties --contract-id StateUpdater --contract-argument '{"asset_id": "test_asset", "state": 3}' ``` - このサンプル コントラクトは、`test_asset` という名前のアセットの `state` (値) を `3` に更新します。 + このサンプルコントラクトは、`test_asset` という名前のアセットの `state` (値) を `3` に更新します。 1. コントラクト `StateReader` を実行します。 ```console @@ -566,9 +567,9 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger の DB スキーマ } ``` * 参考情報 - * 資産データが改ざんされていない場合、検証リクエスト(validate-ledger コマンド)は結果として `OK` を返します。 - * 資産データが改ざんされている場合(例:DBの `state` 値が改ざんされている場合)、検証リクエスト(validate-ledger コマンド)は結果として `OK` 以外の値(例:`INVALID_OUTPUT`)を返します。 以下のような。 - 【コマンド実行結果(資産データが改ざんされた場合)】 + * 資産データが改ざんされていない場合、検証リクエスト (validate-ledger コマンド) は結果として `OK` を返します。 + * 資産データが改ざんされている場合 (例: DB の `state` 値が改ざんされている場合)、検証リクエスト (validate-ledger コマンド) は結果として `OK` 以外の値 (例:`INVALID_OUTPUT`) を返します。以下のような。 + 【コマンド実行結果 (資産データが改ざんされた場合) 】 ```console { "status_code" : "INVALID_OUTPUT", @@ -584,7 +585,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger の DB スキーマ ``` * このようにして、ScalarDL Ledger はデータの改ざんを検出できます。 -## ステップ 9. すべてのリソースを削除する +## ステップ9. すべてのリソースを削除する Kubernetes クラスターで ScalarDL Ledger テストを完了したら、すべてのリソースを削除します。 @@ -598,7 +599,7 @@ Kubernetes クラスターで ScalarDL Ledger テストを完了したら、す kubectl delete pod scalardl-client --force --grace-period 0 ``` -1. 作業ディレクトリとサンプル ファイル (構成ファイル、キー、証明書) を削除します。 +1. 作業ディレクトリとサンプルファイル (構成ファイル、秘密鍵、証明書) を削除します。 ```console cd ~ ``` @@ -610,6 +611,6 @@ Kubernetes クラスターで ScalarDL Ledger テストを完了したら、す Scalar 製品の監視またはログ記録を開始する方法については、次のドキュメントで説明しています。 -* [Helm Charts の入門 (Prometheus Operator を使用したモニタリング)](getting-started-monitoring.mdx) -* [Helm Charts の入門 (Loki スタックを使用したロギング)](getting-started-logging.mdx) -* [Helm Charts の入門 (Scalar Manager)](getting-started-scalar-manager.mdx) +* [Helm Charts をはじめよう (Prometheus Operator を使用したモニタリング)](getting-started-monitoring.mdx) +* [Helm Charts をはじめよう (Loki スタックを使用したロギング)](getting-started-logging.mdx) +* [Helm Charts をはじめよう (Scalar Manager)](getting-started-scalar-manager.mdx) diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/how-to-deploy-scalar-admin-for-kubernetes.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/how-to-deploy-scalar-admin-for-kubernetes.mdx index 735b8f92..447e0ad3 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/how-to-deploy-scalar-admin-for-kubernetes.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/how-to-deploy-scalar-admin-for-kubernetes.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Kubernetes 用に Scalar Admin をデプロイする方法 @@ -10,7 +11,7 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、Scalar Helm Chart を使用して Kubernetes に Scalar Admin をデプロイする方法について説明します。 Scalar Admin for Kubernetes のカスタム値ファイルの詳細については、[Scalar Admin for Kubernetes のカスタム値ファイルの構成](configure-custom-values-scalar-admin-for-kubernetes.mdx) を参照してください。 +このドキュメントでは、Scalar Helm Chart を使用して Kubernetes に Scalar Admin をデプロイする方法について説明します。Scalar Admin for Kubernetes のカスタム値ファイルの詳細については、[Scalar Admin for Kubernetes のカスタム値ファイルの構成](configure-custom-values-scalar-admin-for-kubernetes.mdx)を参照してください。 ## Kubernetes 用の Scalar Admin をデプロイする diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/how-to-deploy-scalar-products.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/how-to-deploy-scalar-products.mdx index 433df160..a3f1a9d3 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/how-to-deploy-scalar-products.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/how-to-deploy-scalar-products.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Scalar Helm Chart を使用して Scalar 製品をデプロイする @@ -10,15 +11,15 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、Scalar Helm Chart を使用して Scalar 製品をデプロイする方法について説明します。 minikube クラスターを使用してローカル環境で Scalar 製品をテストする場合は、次のスタート ガイドを参照してください。 +このドキュメントでは、Scalar Helm Chart を使用して Scalar 製品をデプロイする方法について説明します。minikube クラスターを使用してローカル環境で Scalar 製品をテストする場合は、次のスタートガイドを参照してください。 -* [Scalar Helm Charts の入門](getting-started-scalar-helm-charts.mdx) +* [Scalar Helm Charts をはじめよう](getting-started-scalar-helm-charts.mdx) ## 前提条件 ### Helm コマンドをインストールする -Scalar Helm Charts を使用するには、helm コマンドをインストールする必要があります。 [Helm ドキュメント](https://helm.sh/docs/intro/install/)に従って helm コマンドをインストールしてください。 +Scalar Helm Charts を使用するには、helm コマンドをインストールする必要があります。[Helm ドキュメント](https://helm.sh/docs/intro/install/)に従って helm コマンドをインストールしてください。 ### Scalar Helm Charts リポジトリを追加する @@ -31,7 +32,7 @@ helm repo update scalar-labs ### Kubernetes クラスターを準備する -Scalar 製品を展開するには、Kubernetes クラスターを準備する必要があります。 運用環境で EKS (Amazon Elastic Kubernetes Service) または AKS (Azure Kubernetes Service) を使用している場合。 詳細については、次のドキュメントを参照してください。 +Scalar 製品を展開するには、Kubernetes クラスターを準備する必要があります。運用環境で EKS (Amazon Elastic Kubernetes Service) または AKS (Azure Kubernetes Service) を使用している場合。詳細については、次のドキュメントを参照してください。 - [Scalar 製品用の Amazon EKS クラスターを作成するためのガイドライン](../scalar-kubernetes/CreateEKSClusterForScalarProducts.mdx) - [Scalar 製品用の AKS クラスターを作成するためのガイドライン](../scalar-kubernetes/CreateAKSClusterForScalarProducts.mdx) @@ -40,21 +41,21 @@ Scalar 製品を展開するには、Kubernetes クラスターを準備する ### データベースの準備 (ScalarDB、ScalarDL Ledger、ScalarDL Auditor) -ScalarDB/ScalarDLのバックエンドストレージとしてデータベースを用意する必要があります。 ScalarDB/ScalarDL がサポートするデータベースは次のドキュメントで確認できます。 +ScalarDB/ScalarDLのバックエンドストレージとしてデータベースを用意する必要があります。ScalarDB/ScalarDL がサポートするデータベースは次のドキュメントで確認できます。 * [ScalarDB がサポートするデータベース](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) ### カスタム値ファイルを準備する -環境に基づいてカスタム値ファイルを準備する必要があります。 カスタム値ファイルの作成方法の詳細については、次のドキュメントを参照してください。 +環境に基づいてカスタム値ファイルを準備する必要があります。カスタム値ファイルの作成方法の詳細については、次のドキュメントを参照してください。 * [Scalar Helm Charts のカスタム値ファイルを構成する](configure-custom-values-file.mdx) ### コンテナイメージを取得する -特に商用ライセンス製品を使用する場合は、Scalar 製品のコンテナ イメージを取得する必要があります。 Scalar 製品のコンテナ リポジトリの詳細については、[Scalar 製品のコンテナ イメージを取得する方法](../scalar-kubernetes/HowToGetContainerImages.mdx) を参照してください。 +特に商用ライセンス製品を使用する場合は、Scalar 製品のコンテナイメージを取得する必要があります。Scalar 製品のコンテナリポジトリの詳細については、[Scalar 製品のコンテナイメージを取得する方法](../scalar-kubernetes/HowToGetContainerImages.mdx)を参照してください。 -PostgreSQL で ScalarDB Analytics などの OSS 製品を使用する場合は、パブリック コンテナ リポジトリからコンテナ イメージを取得できます。 +ScalarDB Analytics with PostgreSQL などの OSS 製品を使用する場合は、パブリックコンテナリポジトリからコンテナイメージを取得できます。 ## Scalar 製品をデプロイする diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/how-to-deploy-scalardb-analytics-postgresql.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/how-to-deploy-scalardb-analytics-postgresql.mdx index 12d0e680..ca4cd7ad 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/how-to-deploy-scalardb-analytics-postgresql.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/how-to-deploy-scalardb-analytics-postgresql.mdx @@ -1,6 +1,7 @@ --- tags: - Community +displayed_sidebar: docsJapanese --- # ScalarDB Analytics with PostgreSQL の導入方法 @@ -9,11 +10,11 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、Scalar Helm Chart を使用して ScalarDB Analytics with PostgreSQL をデプロイする方法について説明します。 ScalarDB Analytics with PostgreSQL のカスタム値ファイルの詳細については、[ScalarDB Analytics with PostgreSQL のカスタム値ファイルの構成](configure-custom-values-scalardb-analytics-postgresql.mdx) を参照してください。 +このドキュメントでは、Scalar Helm Chart を使用して ScalarDB Analytics with PostgreSQL をデプロイする方法について説明します。ScalarDB Analytics with PostgreSQL のカスタム値ファイルの詳細については、[ScalarDB Analytics with PostgreSQL のカスタム値ファイルの構成](configure-custom-values-scalardb-analytics-postgresql.mdx)を参照してください。 ## シークレットリソースを準備する -`ScalarDB Analytics with PostgreSQL` をデプロイする前に、キー `superuser-password` を使用して、PostgreSQL のスーパーユーザー パスワードを含むシークレット リソース `scalardb-analytics-postgresql-superuser-password` を作成する必要があります。 Scalar Helm Chart は、この秘密リソースをマウントし、`POSTGRES_PASSWORD` 環境変数を `superuser-password` キーの値に設定します。 +`ScalarDB Analytics with PostgreSQL` をデプロイする前に、キー `superuser-password` を使用して、PostgreSQL のスーパーユーザーパスワードを含むシークレットリソース `scalardb-analytics-postgresql-superuser-password` を作成する必要があります。Scalar Helm Chart は、このシークレットリソースをマウントし、`POSTGRES_PASSWORD` 環境変数を `superuser-password` キーの値に設定します。 ```console kubectl create secret generic scalardb-analytics-postgresql-superuser-password --from-literal=superuser-password= -n diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/how-to-deploy-scalardb-cluster.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/how-to-deploy-scalardb-cluster.mdx index bfb0a74c..6a40c39c 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/how-to-deploy-scalardb-cluster.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/how-to-deploy-scalardb-cluster.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # ScalarDB Cluster のデプロイする方法 @@ -10,7 +11,7 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、Scalar Helm Chart を使用して ScalarDB Cluster をデプロイする方法について説明します。 ScalarDB Cluster のカスタム値ファイルの詳細については、[ScalarDB Cluster のカスタム値ファイルの構成](configure-custom-values-scalardb-cluster.mdx) を参照してください。 +このドキュメントでは、Scalar Helm Chart を使用して ScalarDB Cluster をデプロイする方法について説明します。ScalarDB Cluster のカスタム値ファイルの詳細については、[ScalarDB Cluster のカスタム値ファイルの構成](configure-custom-values-scalardb-cluster.mdx)を参照してください。 ## ScalarDB Cluster をデプロイする @@ -30,15 +31,15 @@ helm upgrade scalar-labs/scalardb-cluster -n -f / -n ``` -## `direct-kubernetes` モードを使用してクライアント アプリケーションを Kubernetes にデプロイします +## `direct-kubernetes` モードを使用してクライアントアプリケーションを Kubernetes にデプロイします ScalarDB Cluster を `direct-kubernetes` モードで使用する場合は、次のことを行う必要があります。 -1. アプリケーション ポッドを ScalarDB Cluster と同じ Kubernetes クラスターにデプロイします。 -2. 3 つの Kubernetes リソース (`Role`、`RoleBinding`、`ServiceAccount`) を作成します。 -3. アプリケーション ポッドに `ServiceAccount` をマウントします。 +1. アプリケーションポッドを ScalarDB Cluster と同じ Kubernetes クラスターにデプロイします。 +2. 3つの Kubernetes リソース (`Role`、`RoleBinding`、`ServiceAccount`) を作成します。 +3. アプリケーションポッドに `ServiceAccount` をマウントします。 -このメソッドが必要なのは、`direct-kubernetes` モードの ScalarDB Cluster クライアント ライブラリがアプリケーション ポッド内から Kubernetes API を実行して、ScalarDB Cluster ポッドに関する情報を取得するためです。 +このメソッドが必要なのは、`direct-kubernetes` モードの ScalarDB Cluster クライアントライブラリがアプリケーションポッド内から Kubernetes API を実行して、ScalarDB Cluster ポッドに関する情報を取得するためです。 * Role ```yaml diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/how-to-deploy-scalardb-graphql.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/how-to-deploy-scalardb-graphql.mdx index 8f613748..0443480e 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/how-to-deploy-scalardb-graphql.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/how-to-deploy-scalardb-graphql.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # [非推奨] ScalarDB GraphQL をデプロイする方法 @@ -12,23 +13,23 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; :::note -ScalarDB GraphQL サーバーは非推奨になりました。 代わりに [ScalarDB Cluster](how-to-deploy-scalardb-cluster.mdx) を使用してください。 +ScalarDB GraphQL サーバーは非推奨になりました。代わりに [ScalarDB Cluster](how-to-deploy-scalardb-cluster.mdx) を使用してください。 ::: -このドキュメントでは、Scalar Helm Chart を使用して ScalarDB GraphQL をデプロイする方法について説明します。 カスタム値ファイルを準備する必要があります。 ScalarDB GraphQL のカスタム値ファイルの詳細については、次のドキュメントを参照してください。 +このドキュメントでは、Scalar Helm Chart を使用して ScalarDB GraphQL をデプロイする方法について説明します。カスタム値ファイルを準備する必要があります。ScalarDB GraphQL のカスタム値ファイルの詳細については、次のドキュメントを参照してください。 * [[非推奨] ScalarDB GraphQL のカスタム値ファイルを構成する](configure-custom-values-scalardb-graphql.mdx) ## ScalarDB Server のデプロイ (推奨オプション) -ScalarDB GraphQL をデプロイする場合は、次のように ScalarDB GraphQL とバックエンド データベースの間に ScalarDB Server をデプロイすることをお勧めします。 +ScalarDB GraphQL をデプロイする場合は、次のように ScalarDB GraphQL とバックエンドデータベースの間に ScalarDB Server をデプロイすることをお勧めします。 ``` [クライアント] ---> [ScalarDB GraphQL] ---> [ScalarDB Server] ---> [バックエンドデータベース] ``` -ScalarDB GraphQLをデプロイする前に、ドキュメント [ScalarDB Server をデプロイする方法](how-to-deploy-scalardb.mdx) に従ってScalarDB Serverをデプロイしてください。 +ScalarDB GraphQLをデプロイする前に、ドキュメント [ScalarDB Server をデプロイする方法](how-to-deploy-scalardb.mdx)に従ってScalarDB Serverをデプロイしてください。 ## ScalarDB GraphQL をデプロイする diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/how-to-deploy-scalardb.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/how-to-deploy-scalardb.mdx index 0c4eb676..79371b5d 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/how-to-deploy-scalardb.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/how-to-deploy-scalardb.mdx @@ -3,6 +3,7 @@ tags: - Enterprise Standard - Enterprise Premium - Deprecated +displayed_sidebar: docsJapanese --- # [非推奨] ScalarDB Server をデプロイする方法 @@ -13,11 +14,11 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; :::note -ScalarDB Server は非推奨になりました。 代わりに [ScalarDB Cluster](how-to-deploy-scalardb-cluster.mdx) を使用してください。 +ScalarDB Server は非推奨になりました。代わりに [ScalarDB Cluster](how-to-deploy-scalardb-cluster.mdx) を使用してください。 ::: -このドキュメントでは、Scalar Helm Chart を使用して ScalarDB Server をデプロイする方法について説明します。 カスタム値ファイルを準備する必要があります。 ScalarDB Server のカスタム値ファイルの詳細については、次のドキュメントを参照してください。 +このドキュメントでは、Scalar Helm Chart を使用して ScalarDB Server をデプロイする方法について説明します。カスタム値ファイルを準備する必要があります。ScalarDB Server のカスタム値ファイルの詳細については、次のドキュメントを参照してください。 * [[非推奨] ScalarDB Server のカスタム値ファイルを構成する](configure-custom-values-scalardb.mdx) diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/how-to-deploy-scalardl-auditor.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/how-to-deploy-scalardl-auditor.mdx index 74852ba2..7727ab26 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/how-to-deploy-scalardl-auditor.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/how-to-deploy-scalardl-auditor.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsJapanese --- # ScalarDL Auditor のデプロイする方法 @@ -7,20 +8,20 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、Scalar Helm Chart を使用して ScalarDL Auditor をデプロイする方法について説明します。 カスタム値ファイルを準備する必要があります。 ScalarDL Auditor および ScalarDL Schema Loader のカスタム値ファイルの詳細については、次のドキュメントを参照してください。 +このドキュメントでは、Scalar Helm Chart を使用して ScalarDL Auditor をデプロイする方法について説明します。カスタム値ファイルを準備する必要があります。ScalarDL Auditor および ScalarDL Schema Loader のカスタム値ファイルの詳細については、次のドキュメントを参照してください。 * [ScalarDL Auditor のカスタム値ファイルを構成する](configure-custom-values-scalardl-auditor.mdx) * [ScalarDL Schema Loaderのカスタム値ファイルを構成する](configure-custom-values-scalardl-schema-loader.mdx) ## 秘密鍵ファイルと証明書ファイルを準備する -ScalarDL Auditor をデプロイするときは、秘密キー ファイルと証明書ファイルを ScalarDL Auditor ポッドにマウントするための Secrete リソースを作成する必要があります。 +ScalarDL Auditor をデプロイするときは、秘密鍵ファイルと証明書ファイルを ScalarDL Auditor ポッドにマウントするための Secrete リソースを作成する必要があります。 -ScalarDL ポッドにキー ファイルと証明書ファイルをマウントする方法の詳細については、[ScalarDL Helm Charts のポッドにキーファイルと証明書ファイルをマウントする](mount-files-or-volumes-on-scalar-pods.mdx#scalardl-helm-charts-のポッドにキーファイルと証明書ファイルをマウントする) を参照してください。 +ScalarDL ポッドに秘密鍵ファイルと証明書ファイルをマウントする方法の詳細については、[ScalarDL Helm Charts のポッドに秘密鍵ファイルと証明書ファイルをマウントする](mount-files-or-volumes-on-scalar-pods.mdx#scalardl-helm-charts-のポッドにキーファイルと証明書ファイルをマウントする)を参照してください。 ## ScalarDL Auditor のスキーマの作成 (ScalarDL Schema Loader のデプロイ) -ScalarDL Auditor をデプロイする前に、バックエンド データベースに ScalarDL Auditor のスキーマを作成する必要があります。 +ScalarDL Auditor をデプロイする前に、バックエンドデータベースに ScalarDL Auditor のスキーマを作成する必要があります。 ```console helm install scalar-labs/schema-loading -n -f / --version diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/how-to-deploy-scalardl-ledger.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/how-to-deploy-scalardl-ledger.mdx index c9267056..07897ff9 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/how-to-deploy-scalardl-ledger.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/how-to-deploy-scalardl-ledger.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsJapanese --- # ScalarDL Ledger のデプロイ方法 @@ -7,22 +8,22 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、Scalar Helm Chart を使用して ScalarDL Ledger をデプロイする方法について説明します。 カスタム値ファイルを準備する必要があります。 ScalarDL Ledger および ScalarDL Schema Loader のカスタム値ファイルの詳細については、次のドキュメントを参照してください。 +このドキュメントでは、Scalar Helm Chart を使用して ScalarDL Ledger をデプロイする方法について説明します。カスタム値ファイルを準備する必要があります。ScalarDL Ledger および ScalarDL Schema Loader のカスタム値ファイルの詳細については、次のドキュメントを参照してください。 * [ScalarDL Ledger のカスタム値ファイルを構成する](configure-custom-values-scalardl-ledger.mdx) * [ScalarDL Schema Loaderのカスタム値ファイルを構成する](configure-custom-values-scalardl-schema-loader.mdx) ## 秘密鍵ファイルを準備します (オプション / ScalarDL Auditor を使用する場合は必要です) -ScalarDL Ledger の [asset proofs](https://scalardl.scalar-labs.com/ja-jp/docs/latest/how-to-use-proof) を使用する場合は、秘密キー ファイルを ScalarDL Ledger ポッドにマウントするための Secrete リソースを作成する必要があります。 ScalarDL Auditorを使用する場合は資産証明が必要です。 +ScalarDL Ledger の [asset proofs](https://scalardl.scalar-labs.com/ja-jp/docs/latest/how-to-use-proof) を使用する場合は、秘密鍵ファイルを ScalarDL Ledger ポッドにマウントするための Secrete リソースを作成する必要があります。ScalarDL Auditor を使用する場合はアセット証明が必要です。 ScalarDL ポッドにキー/証明書ファイルをマウントする方法の詳細については、次のドキュメントを参照してください。 -* [ScalarDL Helm Charts のポッドにキーファイルと証明書ファイルをマウントする](mount-files-or-volumes-on-scalar-pods.mdx#scalardl-helm-charts-のポッドにキーファイルと証明書ファイルをマウントする) +* [ScalarDL Helm Charts のポッドに秘密鍵ファイルと証明書ファイルをマウントする](mount-files-or-volumes-on-scalar-pods.mdx#scalardl-helm-charts-のポッドに秘密鍵ファイルと証明書ファイルをマウントする) ## ScalarDL Ledger のスキーマの作成 (ScalarDL Schema Loader のデプロイ) -ScalarDL Ledger をデプロイする前に、バックエンド データベースに ScalarDL Ledger のスキーマを作成する必要があります。 +ScalarDL Ledger をデプロイする前に、バックエンドデータベースに ScalarDL Ledger のスキーマを作成する必要があります。 ```console helm install scalar-labs/schema-loading -n -f / --version diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/mount-files-or-volumes-on-scalar-pods.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/mount-files-or-volumes-on-scalar-pods.mdx index 11bd03d2..fd11df55 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/mount-files-or-volumes-on-scalar-pods.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/mount-files-or-volumes-on-scalar-pods.mdx @@ -2,15 +2,16 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Scalar 製品ポッドにファイルまたはボリュームをマウントします ScalarDB Server、ScalarDB Cluster、ScalarDB Analytics with PostgreSQL、または ScalarDL Helm Charts (ScalarDL Ledger および ScalarDL Auditor) を使用する場合、Scalar 製品ポッドに任意のファイルまたはボリュームをマウントできます。 -## ScalarDL Helm Charts のポッドにキーファイルと証明書ファイルをマウントする +## ScalarDL Helm Charts のポッドに秘密鍵ファイルと証明書ファイルをマウントする -ScalarDL Auditor を実行するには、キー ファイルと証明書ファイルをマウントする必要があります。 +ScalarDL Auditor を実行するには、秘密鍵ファイルと証明書ファイルをマウントする必要があります。 * 構成例 * ScalarDL Ledger @@ -31,9 +32,9 @@ ScalarDL Auditor を実行するには、キー ファイルと証明書ファ scalar.dl.auditor.cert_path=/keys/certificate ``` -この例では、**秘密キー** ファイルと **証明書** ファイルをコンテナ内の `/keys` ディレクトリにマウントする必要があります。 そして、`private-key` と `certificate` という名前のファイルをマウントする必要があります。 これらのファイルをマウントするには、`extraVolumes` および `extraVolumeMounts` を使用できます。 +この例では、**秘密鍵** ファイルと **証明書** ファイルをコンテナ内の `/keys` ディレクトリにマウントする必要があります。そして、`private-key` と `certificate` という名前のファイルをマウントする必要があります。これらのファイルをマウントするには、`extraVolumes` および `extraVolumeMounts` を使用できます。 -1. Kubernetes マニフェストと同じ構文を使用して、カスタム値ファイルに `extraVolumes` と `extraVolumeMounts` を設定します。 `mountPath` キーにディレクトリ名を指定する必要があります。 +1. Kubernetes マニフェストと同じ構文を使用して、カスタム値ファイルに `extraVolumes` と `extraVolumeMounts` を設定します。`mountPath` キーにディレクトリ名を指定する必要があります。 * 例 * ScalarDL Ledger ```yaml @@ -79,16 +80,16 @@ ScalarDL Auditor を実行するには、キー ファイルと証明書ファ 1. 上記のカスタム値ファイルを使用して Scalar 製品をデプロイします。 - Scalar 製品を展開した後、次のようにキー ファイルと証明書ファイルが `/keys` ディレクトリにマウントされます。 + Scalar 製品を展開した後、次のように秘密鍵ファイルと証明書ファイルが `/keys` ディレクトリにマウントされます。 * 例 * ScalarDL Ledger ```console ls -l /keys/ ``` - + 次のような結果が表示されます: - + ```console total 0 lrwxrwxrwx 1 root root 18 Jun 27 03:12 private-key -> ..data/private-key @@ -99,16 +100,16 @@ ScalarDL Auditor を実行するには、キー ファイルと証明書ファ ``` 次のような結果が表示されます: - + ```console total 0 lrwxrwxrwx 1 root root 18 Jun 27 03:16 certificate -> ..data/certificate lrwxrwxrwx 1 root root 18 Jun 27 03:16 private-key -> ..data/private-key ``` -## emptyDir をマウントしてヒープ ダンプ ファイルを取得します +## emptyDir をマウントしてヒープダンプファイルを取得します -カスタム値ファイルで次のキーを使用して、emptyDir を Scalar 製品ポッドにマウントできます。 たとえば、このボリュームを使用して、Scalar 製品のヒープ ダンプを取得できます。 +カスタム値ファイルで次のキーを使用して、emptyDir を Scalar 製品ポッドにマウントできます。たとえば、このボリュームを使用して、Scalar 製品のヒープダンプを取得できます。 * キー * `scalardb.extraVolumes` / `scalardb.extraVolumeMounts` (ScalarDB Server) diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/use-secret-for-credentials.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/use-secret-for-credentials.mdx index 8714ca07..2f62352c 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/use-secret-for-credentials.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/helm-charts/use-secret-for-credentials.mdx @@ -2,9 +2,10 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- -# Secret リソースを使用して資格情報を環境変数としてプロパティ ファイルに渡す方法 +# Secret リソースを使用して資格情報を環境変数としてプロパティファイルに渡す方法 import Tabs from '@theme/Tabs'; import TabItem from '@theme/TabItem'; @@ -12,7 +13,7 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -Kubernetes の `Secret` リソースを介して、**username** や **password** などの資格情報を環境変数として渡すことができます。 Scalar 製品の以前のバージョンの Docker イメージは、プロパティ ファイルのテンプレート化に `dockerize` コマンドを使用します。 Scalar 製品の最新バージョンの Docker イメージは、環境変数から直接値を取得します。 +Kubernetes の `Secret` リソースを介して、**username** や **password** などの資格情報を環境変数として渡すことができます。Scalar 製品の以前のバージョンの Docker イメージは、プロパティファイルのテンプレート化に `dockerize` コマンドを使用します。Scalar 製品の最新バージョンの Docker イメージは、環境変数から直接値を取得します。 注記:次の環境変数名は、Scalar Helm Chart の内部で使用されるため、カスタム値ファイルで使用できません。 ```console @@ -63,7 +64,7 @@ SCALAR_DB_CLUSTER_MEMBERSHIP_KUBERNETES_ENDPOINT_NAME ``` -

ScalarDB Server 3.8 以降 (Apache Commons Text 構文)

+

ScalarDB Server 3.8以降 (Apache Commons Text 構文)

```yaml scalardb: @@ -74,7 +75,7 @@ SCALAR_DB_CLUSTER_MEMBERSHIP_KUBERNETES_ENDPOINT_NAME ... ``` -

ScalarDB Server 3.7 以前 (Go テンプレート構文)

+

ScalarDB Server 3.7以前 (Go テンプレート構文)

```yaml scalardb: @@ -86,7 +87,7 @@ SCALAR_DB_CLUSTER_MEMBERSHIP_KUBERNETES_ENDPOINT_NAME ```
-

ScalarDL Ledger 3.8 以降 (Apache Commons Text 構文)

+

ScalarDL Ledger 3.8以降 (Apache Commons Text 構文)

```yaml ledger: @@ -97,7 +98,7 @@ SCALAR_DB_CLUSTER_MEMBERSHIP_KUBERNETES_ENDPOINT_NAME ... ``` -

ScalarDL Ledger 3.7 以前 (Go テンプレート構文)

+

ScalarDL Ledger 3.7以前 (Go テンプレート構文)

```yaml ledger: @@ -109,7 +110,7 @@ SCALAR_DB_CLUSTER_MEMBERSHIP_KUBERNETES_ENDPOINT_NAME ```
-

ScalarDL Auditor 3.8 以降 (Apache Commons Text 構文)

+

ScalarDL Auditor 3.8以降 (Apache Commons Text 構文)

```yaml auditor: @@ -120,7 +121,7 @@ SCALAR_DB_CLUSTER_MEMBERSHIP_KUBERNETES_ENDPOINT_NAME ... ``` -

ScalarDL Auditor 3.7 以前 (Go テンプレート構文)

+

ScalarDL Auditor 3.7以前 (Go テンプレート構文)

```yaml auditor: @@ -132,7 +133,7 @@ SCALAR_DB_CLUSTER_MEMBERSHIP_KUBERNETES_ENDPOINT_NAME ```
-

ScalarDL Schema Loader 3.8 以降 (Apache Commons Text 構文)

+

ScalarDL Schema Loader 3.8以降 (Apache Commons Text 構文)

```yaml schemaLoading: @@ -143,7 +144,7 @@ SCALAR_DB_CLUSTER_MEMBERSHIP_KUBERNETES_ENDPOINT_NAME ... ``` -

ScalarDL Schema Loader 3.7 以前 (Go テンプレート構文)

+

ScalarDL Schema Loader 3.7以前 (Go テンプレート構文)

```yaml schemaLoading: @@ -233,8 +234,8 @@ SCALAR_DB_CLUSTER_MEMBERSHIP_KUBERNETES_ENDPOINT_NAME scalar.db.password={{ default .Env.SCALAR_DB_PASSWORD "" }} scalar.db.storage=jdbc ``` - - * コンテナ内のプロパティ ファイル + + * コンテナ内のプロパティファイル ```properties scalar.db.contact_points=jdbc:postgresql://postgresql-scalardb.default.svc.cluster.local:5432/postgres scalar.db.username=postgres diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/AccessScalarProducts.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/AccessScalarProducts.mdx index af45a284..156edb6e 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/AccessScalarProducts.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/AccessScalarProducts.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Kubernetes クラスター環境にデプロイされた ScalarDB または ScalarDL をアプリケーションから利用できるようにする @@ -10,13 +11,13 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、Kubernetes クラスター環境にデプロイされた ScalarDB または ScalarDL をアプリケーションから利用できるようにする方法について説明します。 ScalarDB または ScalarDL をアプリケーションから利用できるようにするには、`-envoy` という名前の Kubernetes サービス リソース経由で Scalar Envoy を使用します。 `-envoy` は次のようないくつかの方法で使用できます。 +このドキュメントでは、Kubernetes クラスター環境にデプロイされた ScalarDB または ScalarDL をアプリケーションから利用できるようにする方法について説明します。ScalarDB または ScalarDL をアプリケーションから利用できるようにするには、`-envoy` という名前の Kubernetes サービスリソース経由で Scalar Envoy を使用します。`-envoy` は次のようないくつかの方法で使用できます。 * ScalarDB または ScalarDL と同じ Kubernetes クラスター内から直接。 -* Kubernetes クラスターの外部からのロード バランサー経由。 -* `kubectl port-forward` コマンドを使用して要塞サーバーから実行します (テスト目的のみ)。 +* Kubernetes クラスターの外部からのロードバランサー経由。 +* `kubectl port-forward` コマンドを使用して踏み台サーバーから実行します (テスト目的のみ)。 -リソース名 `-envoy` は Helm リリース名に基づいて決定されます。 次のコマンドを実行すると、helm リリース名を確認できます。 +リソース名 `-envoy` は Helm リリース名に基づいて決定されます。次のコマンドを実行すると、helm リリース名を確認できます。 ```console helm list -n ns-scalar @@ -55,9 +56,9 @@ scalardl-ledger-headless ClusterIP None 5 scalardl-ledger-metrics ClusterIP 10.104.216.189 8080/TCP 109s ``` -## 同じ Kubernetes クラスター内からサービス リソースを介して、ScalarDB または ScalarDL へのアプリケーション (クライアント) リクエストを直接実行します。 +## 同じ Kubernetes クラスター内からサービスリソースを介して、ScalarDB または ScalarDL へのアプリケーション (クライアント) リクエストを直接実行します。 -アプリケーション (クライアント) を ScalarDB または ScalarDL と同じ Kubernetes クラスターにデプロイする場合 (たとえば、アプリケーション [クライアント] を同じ Kubernetes クラスター内の別のノード グループまたはプールにデプロイする場合)、アプリケーションは次の方法で ScalarDB または ScalarDL にアクセスできます。 Kubernetes サービス リソースを使用します。 サービスリソース名 (FQDN) の形式は、`-envoy..svc.cluster.local` です。 +アプリケーション (クライアント) を ScalarDB または ScalarDL と同じ Kubernetes クラスターにデプロイする場合 (たとえば、アプリケーション [クライアント] を同じ Kubernetes クラスター内の別のノードグループまたはプールにデプロイする場合)、アプリケーションは次の方法で ScalarDB または ScalarDL にアクセスできます。Kubernetes サービスリソースを使用します。サービスリソース名 (FQDN) の形式は、`-envoy..svc.cluster.local` です。 以下は、`ns-scalar` 名前空間での ScalarDB および ScalarDL のデプロイメントの例です。 @@ -74,7 +75,7 @@ scalardl-ledger-metrics ClusterIP 10.104.216.189 8 scalardl-auditor-envoy.ns-scalar.svc.cluster.local ``` -Kubernetes サービス リソースを使用する場合、アプリケーション (クライアント) のプロパティ ファイルに上記の FQDN を次のように設定する必要があります。 +Kubernetes サービスリソースを使用する場合、アプリケーション (クライアント) のプロパティファイルに上記の FQDN を次のように設定する必要があります。 * **ScalarDB Server のクライアントプロパティファイル** ```properties @@ -89,13 +90,13 @@ Kubernetes サービス リソースを使用する場合、アプリケーシ scalar.dl.ledger.server.port=50051 scalar.dl.ledger.server.privileged_port=50052 ``` -* **ScalarDL Auditor モードが有効になっている ScalarDL Ledger のクライアント プロパティ ファイル** +* **ScalarDL Auditor モードが有効になっている ScalarDL Ledger のクライアントプロパティファイル** ```properties # Ledger scalar.dl.client.server.host=-envoy..svc.cluster.local scalar.dl.ledger.server.port=50051 scalar.dl.ledger.server.privileged_port=50052 - + # Auditor scalar.dl.client.auditor.enabled=true scalar.dl.client.auditor.host=-envoy..svc.cluster.local @@ -103,15 +104,15 @@ Kubernetes サービス リソースを使用する場合、アプリケーシ scalar.dl.auditor.server.privileged_port=40052 ``` -## Kubernetes クラスターの外部からロード バランサー経由で ScalarDB または ScalarDL へのアプリケーション (クライアント) リクエストを実行します +## Kubernetes クラスターの外部からロードバランサー経由で ScalarDB または ScalarDL へのアプリケーション (クライアント) リクエストを実行します -ScalarDB または ScalarDL の Kubernetes クラスターの外部の環境にアプリケーション (クライアント) をデプロイする場合 (たとえば、アプリケーション [クライアント] を別の Kubernetes クラスター、コンテナー プラットフォーム、またはサーバーにデプロイする場合)、アプリケーションは ScalarDB または ScalarDL にアクセスできます。 各クラウドサービスが提供するロードバランサーを利用します。 +ScalarDB または ScalarDL の Kubernetes クラスターの外部の環境にアプリケーション (クライアント) をデプロイする場合 (たとえば、アプリケーション [クライアント] を別の Kubernetes クラスター、コンテナープラットフォーム、またはサーバーにデプロイする場合)、アプリケーションは ScalarDB または ScalarDL にアクセスできます。各クラウドサービスが提供するロードバランサーを利用します。 -カスタム値ファイルで `envoy.service.type` を `LoadBalancer` に設定することで、ロード バランサーを作成できます。 カスタム値ファイルを構成した後、ロード バランサーを使用して、Kubernetes サービス リソースを通じて Scalar Envoy を使用できるようになります。 注釈を使用してロード バランサーの構成を設定することもできます。 +カスタム値ファイルで `envoy.service.type` を `LoadBalancer` に設定することで、ロードバランサーを作成できます。カスタム値ファイルを構成した後、ロードバランサーを使用して、Kubernetes サービスリソースを通じて Scalar Envoy を使用できるようになります。注釈を使用してロードバランサーの構成を設定することもできます。 カスタム値ファイルの設定方法の詳細については、[サービス設定](../helm-charts/configure-custom-values-envoy.mdx#サービス構成)を参照してください。 -ロードバランサを使用する場合、アプリケーション(クライアント)のプロパティファイルにロードバランサのFQDNまたはIPアドレスを以下のように設定する必要があります。 +ロードバランサを使用する場合、アプリケーション (クライアント) のプロパティファイルにロードバランサのFQDNまたはIPアドレスを以下のように設定する必要があります。 * **ScalarDB Server のクライアントプロパティファイル** ```properties @@ -126,13 +127,13 @@ ScalarDB または ScalarDL の Kubernetes クラスターの外部の環境に scalar.dl.ledger.server.port=50051 scalar.dl.ledger.server.privileged_port=50052 ``` -* **ScalarDL Auditor モードが有効になっている ScalarDL Ledger のクライアント プロパティ ファイル** +* **ScalarDL Auditor モードが有効になっている ScalarDL Ledger のクライアントプロパティファイル** ```properties # Ledger scalar.dl.client.server.host= scalar.dl.ledger.server.port=50051 scalar.dl.ledger.server.privileged_port=50052 - + # Auditor scalar.dl.client.auditor.enabled=true scalar.dl.client.auditor.host= @@ -140,7 +141,7 @@ ScalarDB または ScalarDL の Kubernetes クラスターの外部の環境に scalar.dl.auditor.server.privileged_port=40052 ``` -ロード バランサーの具体的な実装とアクセス方法は、Kubernetes クラスターに依存します。 マネージド Kubernetes クラスターを使用している場合は、クラウド サービス プロバイダーに基づいて次の公式ドキュメントを参照してください。 +ロードバランサーの具体的な実装とアクセス方法は、Kubernetes クラスターに依存します。マネージド Kubernetes クラスターを使用している場合は、クラウドサービスプロバイダーに基づいて次の公式ドキュメントを参照してください。 * **Amazon Elastic Kubernetes Service (EKS)** * [Network load balancing on Amazon EKS](https://docs.aws.amazon.com/eks/latest/userguide/network-load-balancing.html) @@ -148,12 +149,12 @@ ScalarDB または ScalarDL の Kubernetes クラスターの外部の環境に * [Use a public standard load balancer in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/load-balancer-standard) * [Use an internal load balancer with Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/internal-lb) -## 要塞サーバーから ScalarDB または ScalarDL へのクライアント リクエストを実行します (テスト目的のみ。運用環境では推奨されません) +## 踏み台サーバーから ScalarDB または ScalarDL へのクライアントリクエストを実行します (テスト目的のみ。運用環境では推奨されません) -`kubectl port-forward` コマンドを実行すると、要塞サーバーから ScalarDB または ScalarDL へのクライアント リクエストを実行できます。 ただし、ScalarDL Auditor モード環境を作成する場合、2 つの Kubernetes クラスターにアクセスするには、1 つの要塞サーバーから異なる kubeconfig ファイルを使用して 2 つの `kubectl port-forward` コマンドを実行する必要があります。 +`kubectl port-forward` コマンドを実行すると、踏み台サーバーから ScalarDB または ScalarDL へのクライアントリクエストを実行できます。ただし、ScalarDL Auditor モード環境を作成する場合、2つの Kubernetes クラスターにアクセスするには、1つの踏み台サーバーから異なる kubeconfig ファイルを使用して2つの `kubectl port-forward` コマンドを実行する必要があります。 -1. **(ScalarDL Auditor モードのみ)** ScalarDL Ledger の要塞サーバーで、ScalarDL Auditor の Kubernetes クラスターにアクセスするために既存の kubeconfig ファイルを構成するか、新しい kubeconfig ファイルを追加します。 管理対象の各 Kubernetes クラスターの kubeconfig ファイルを構成する方法の詳細については、[kubeconfig の構成](CreateBastionServer.mdx#kubeconfig-の構成)を参照してください。 -2. 要塞サーバーから各サービスへのポート転送を構成します。 +1. **(ScalarDL Auditor モードのみ)** ScalarDL Ledger の踏み台サーバーで、ScalarDL Auditor の Kubernetes クラスターにアクセスするために既存の kubeconfig ファイルを構成するか、新しい kubeconfig ファイルを追加します。管理対象の各 Kubernetes クラスターの kubeconfig ファイルを構成する方法の詳細については、[kubeconfig の構成](CreateBastionServer.mdx#kubeconfig-の構成)を参照してください。 +2. 踏み台サーバーから各サービスへのポート転送を構成します。 * **ScalarDB Server** ```console kubectl port-forward -n svc/-envoy 60051:60051 @@ -168,7 +169,7 @@ ScalarDB または ScalarDL の Kubernetes クラスターの外部の環境に kubectl --context port-forward -n svc/-envoy 40051:40051 kubectl --context port-forward -n svc/-envoy 40052:40052 ``` -3. `localhost` 経由で ScalarDB または ScalarDL にアクセスするようにプロパティ ファイルを設定します。 +3. `localhost` 経由で ScalarDB または ScalarDL にアクセスするようにプロパティファイルを設定します。 * **ScalarDB Server のクライアントプロパティファイル** ```properties scalar.db.contact_points=localhost @@ -182,13 +183,13 @@ ScalarDB または ScalarDL の Kubernetes クラスターの外部の環境に scalar.dl.ledger.server.port=50051 scalar.dl.ledger.server.privileged_port=50052 ``` - * **ScalarDL Auditor モードが有効になっている ScalarDL Ledger のクライアント プロパティ ファイル** + * **ScalarDL Auditor モードが有効になっている ScalarDL Ledger のクライアントプロパティファイル** ```properties # Ledger scalar.dl.client.server.host=localhost scalar.dl.ledger.server.port=50051 scalar.dl.ledger.server.privileged_port=50052 - + # Auditor scalar.dl.client.auditor.enabled=true scalar.dl.client.auditor.host=localhost diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/AwsMarketplaceGuide.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/AwsMarketplaceGuide.mdx index 90693760..202e0727 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/AwsMarketplaceGuide.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/AwsMarketplaceGuide.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # AWS Marketplace を通じて Scalar 製品をインストールする方法 @@ -18,7 +19,7 @@ Scalar 製品 (ScalarDB、ScalarDL、およびそれらのツール) は、AWS M - 一部の Scalar 製品は商用ライセンスで利用可能であり、AWS Marketplace ではそれらの製品を従量課金制 (PAYG) 料金で提供しています。従量課金制料金を使用する場合、AWS は使用量に基づいて Scalar 製品のライセンス料を請求します。 - 以前は、AWS Marketplace でライセンス持ち込み (BYOL) オプションが提供されていました。ただし、このオプションは廃止され、削除されたため、AWS Marketplace ではサポートされなくなりました。 -- BYOL オプションは、AWS Marketplace ではなく、次のパブリックコンテナリポジトリで提供されています。ライセンスキーをお持ちでない場合は、[お問い合わせ](https://www.scalar-labs.com/contact-jp) ください。 +- BYOL オプションは、AWS Marketplace ではなく、次のパブリックコンテナリポジトリで提供されています。ライセンスキーをお持ちでない場合は、[お問い合わせ](https://www.scalar-labs.com/contact-jp)ください。 - [ScalarDB Cluster Enterprise Standard](https://github.com/orgs/scalar-labs/packages/container/package/scalardb-cluster-node-byol-standard) - [ScalarDB Cluster Enterprise Premium](https://github.com/orgs/scalar-labs/packages/container/package/scalardb-cluster-node-byol-premium) - [ScalarDL Ledger](https://github.com/orgs/scalar-labs/packages/container/package/scalardl-ledger-byol) @@ -69,11 +70,11 @@ Scalar 製品 (ScalarDB、ScalarDL、およびそれらのツール) は、AWS M すでにサインインしている場合、この手順は自動的にスキップされます。 1. **利用規約**を読み、**利用規約に同意する**を選択します。 - 時間がかかります。 完了すると、**発効日**列に現在の日付が表示されます。 + 時間がかかります。完了すると、**発効日**列に現在の日付が表示されます。 また、AWS コンソールの [Manage subscriptions](https://us-east-1.console.aws.amazon.com/marketplace/home#/subscriptions) ページでも製品を確認できます。 ## Scalar Helm Charts を使用して AWS Marketplace から EKS (Amazon Elastic Kubernetes Service) にコンテナをデプロイする -AWS Marketplace で Scalar 製品をサブスクライブすると、AWS Marketplace のプライベート コンテナ レジストリ ([ECR](https://aws.amazon.com/ecr/)) から Scalar 製品のコンテナ イメージをプルできます。 このセクションでは、プライベート コンテナー レジストリから [EKS](https://aws.amazon.com/eks/) クラスターに従量課金制の価格で Scalar 製品をデプロイする方法について説明します。 +AWS Marketplace で Scalar 製品をサブスクライブすると、AWS Marketplace のプライベートコンテナレジストリ ([ECR](https://aws.amazon.com/ecr/)) から Scalar 製品のコンテナイメージをプルできます。このセクションでは、プライベートコンテナーレジストリから [EKS](https://aws.amazon.com/eks/) クラスターに従量課金制の価格で Scalar 製品をデプロイする方法について説明します。 1. OIDC プロバイダーを作成します。 @@ -101,7 +102,7 @@ AWS Marketplace で Scalar 製品をサブスクライブすると、AWS Marketp ``` 1. インストールする Scalar 製品の Helm Chart のカスタム値ファイルを更新します。 - カスタム値ファイルの `[].image.repository` の値として、AWS Marketplace のプライベート コンテナ レジストリ (ECR) を指定する必要があります。 また、前の手順で作成したサービス アカウント名を `[].serviceAccount.serviceAccountName` の値として指定し、 `[].serviceAccount.automountServiceAccountToken` を `true` に設定する必要があります。使用している製品に応じて、次の例を参照してください。 + カスタム値ファイルの `[].image.repository` の値として、AWS Marketplace のプライベートコンテナレジストリ (ECR) を指定する必要があります。また、前の手順で作成したサービスアカウント名を `[].serviceAccount.serviceAccountName` の値として指定し、 `[].serviceAccount.automountServiceAccountToken` を `true` に設定する必要があります。使用している製品に応じて、次の例を参照してください。 @@ -169,7 +170,7 @@ AWS Marketplace で Scalar 製品をサブスクライブすると、AWS Marketp

ScalarDL Schema Loader for Ledger

- `schema-loader-ledger-custom-values.yaml` ファイル内の `[].image.repository` 構成を更新する必要はありません。ScalarDL Schema Loader のコンテナイメージは、[パブリックコンテナリポジトリ](https://github.com/orgs/scalar-labs/packages/container/package/scalardl-schema-loader) で提供されています。 + `schema-loader-ledger-custom-values.yaml` ファイル内の `[].image.repository` 構成を更新する必要はありません。ScalarDL Schema Loader のコンテナイメージは、[パブリックコンテナリポジトリ](https://github.com/orgs/scalar-labs/packages/container/package/scalardl-schema-loader)で提供されています。 :::note @@ -286,10 +287,10 @@ AWS Marketplace で Scalar 製品をサブスクライブすると、AWS Marketp ## **[非推奨] [BYOL]** Scalar Helm Chart を使用して AWS Marketplace から EKS (Amazon Elastic Kubernetes Service) にコンテナをデプロイする -AWS Marketplace で Scalar 製品をサブスクライブすると、AWS Marketplace のプライベート コンテナ レジストリ ([ECR](https://aws.amazon.com/ecr/)) から Scalar 製品のコンテナ イメージをプルできます。 このセクションでは、プライベート コンテナー レジストリから [EKS](https://aws.amazon.com/eks/) クラスターに BYOL オプションを使用して Scalar 製品をデプロイする方法について説明します。 +AWS Marketplace で Scalar 製品をサブスクライブすると、AWS Marketplace のプライベートコンテナレジストリ ([ECR](https://aws.amazon.com/ecr/)) から Scalar 製品のコンテナイメージをプルできます。このセクションでは、プライベートコンテナーレジストリから [EKS](https://aws.amazon.com/eks/) クラスターに BYOL オプションを使用して Scalar 製品をデプロイする方法について説明します。 1. インストールする Scalar 製品の Helm Chart のカスタム値ファイルを更新します。 - AWS Marketplace のプライベート コンテナ レジストリ (ECR) をカスタム値ファイルの `[].image.repository` の値として指定する必要があります。使用している製品に応じて、次の例を参照してください。 + AWS Marketplace のプライベートコンテナレジストリ (ECR) をカスタム値ファイルの `[].image.repository` の値として指定する必要があります。使用している製品に応じて、次の例を参照してください。 @@ -416,7 +417,7 @@ AWS Marketplace で Scalar 製品をサブスクライブすると、AWS Marketp ``` 1. インストールする Scalar 製品の Helm Chart のカスタム値ファイルを更新します。 - AWS Marketplace のプライベート コンテナ レジストリ (ECR) をカスタム値ファイルの `[].image.repository` の値として指定する必要があります。 + AWS Marketplace のプライベートコンテナレジストリ (ECR) をカスタム値ファイルの `[].image.repository` の値として指定する必要があります。 また、`[].imagePullSecrets` の値として `reg-ecr-mp-secrets` を指定する必要があります。使用している製品に応じて、次の例を参照してください。 @@ -457,7 +458,7 @@ AWS Marketplace で Scalar 製品をサブスクライブすると、AWS Marketp

ScalarDL Schema Loader for Ledger

- `schema-loader-ledger-custom-values.yaml` ファイル内の `[].image.repository` 構成を更新する必要はありません。ScalarDL Schema Loader のコンテナイメージは、[パブリックコンテナリポジトリ](https://github.com/orgs/scalar-labs/packages/container/package/scalardl-schema-loader) で提供されています。 + `schema-loader-ledger-custom-values.yaml` ファイル内の `[].image.repository` 構成を更新する必要はありません。ScalarDL Schema Loader のコンテナイメージは、[パブリックコンテナリポジトリ](https://github.com/orgs/scalar-labs/packages/container/package/scalardl-schema-loader)で提供されています。 :::note @@ -487,7 +488,7 @@ AWS Marketplace で Scalar 製品をサブスクライブすると、AWS Marketp

ScalarDL Schema Loader for Auditor

- `schema-loader-auditor-custom-values.yaml` ファイル内の `[].image.repository` 構成を更新する必要はありません。ScalarDL Schema Loader のコンテナイメージは、[パブリックコンテナリポジトリ](https://github.com/orgs/scalar-labs/packages/container/package/scalardl-schema-loader) で提供されています。 + `schema-loader-auditor-custom-values.yaml` ファイル内の `[].image.repository` 構成を更新する必要はありません。ScalarDL Schema Loader のコンテナイメージは、[パブリックコンテナリポジトリ](https://github.com/orgs/scalar-labs/packages/container/package/scalardl-schema-loader)で提供されています。 :::note diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/AzureMarketplaceGuide.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/AzureMarketplaceGuide.mdx index 31efb024..e9d69bd5 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/AzureMarketplaceGuide.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/AzureMarketplaceGuide.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Azure Marketplace を通じて Scalar 製品をインストールする方法 @@ -14,13 +15,13 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; :::warning -現在、Scalar 製品は Azure Marketplace では入手できません。 Scalar 製品のコンテナ イメージを取得するその他の方法については、[Scalar 製品のコンテナイメージを取得する方法](./HowToGetContainerImages.mdx) を参照してください。 +現在、Scalar 製品は Azure Marketplace では入手できません。Scalar 製品のコンテナイメージを取得するその他の方法については、[Scalar 製品のコンテナイメージを取得する方法](./HowToGetContainerImages.mdx)を参照してください。 ::: -Scalar 製品 (ScalarDB、ScalarDL、およびそれらのツール) は、コンテナー オファーとして Azure Marketplace で提供されます。 このガイドでは、Azure Marketplace を通じて Scalar 製品をインストールする方法について説明します。 +Scalar 製品 (ScalarDB、ScalarDL、およびそれらのツール) は、コンテナーオファーとして Azure Marketplace で提供されます。このガイドでは、Azure Marketplace を通じて Scalar 製品をインストールする方法について説明します。 -一部の Scalar 製品は商用ライセンスに基づいてライセンスされており、Azure Marketplace では BYOL (Bring Your Own License) として提供されていることに注意してください。 適切なライセンスを持っていることを確認してください。 +一部の Scalar 製品は商用ライセンスに基づいてライセンスされており、Azure Marketplace では BYOL (Bring Your Own License) として提供されていることに注意してください。適切なライセンスを持っていることを確認してください。 ## Microsoft Azure Marketplace から Scalar 製品を入手する @@ -37,55 +38,55 @@ Scalar 製品 (ScalarDB、ScalarDL、およびそれらのツール) は、コ 1. **Get It Now** を選択します。 -1. 職場の電子メール アドレスを使用して Azure Marketplace にサインインします。 +1. 職場の電子メールアドレスを使用して Azure Marketplace にサインインします。 Microsoft Azureのアカウントとして使用している仕事用メールアドレスをご利用ください。 すでにサインインしている場合、この手順は自動的にスキップされます。 1. あなたの情報を入力してください。 **会社**は必須ではありませんが、入力してください。 -1. 必要な **ソフトウェア プラン** をプルダウンから選択します。 - **ソフトウェア プラン** とは、コンテナ イメージとライセンスの組み合わせを意味します。 ご使用の *ソフトウェア プラン* を選択してください。 +1. 必要な **ソフトウェアプラン** をプルダウンから選択します。 + **ソフトウェアプラン** とは、コンテナイメージとライセンスの組み合わせを意味します。ご使用の *ソフトウェアプラン* を選択してください。 1. [**続行**] を選択します。 [**続行**] を選択すると、自動的に Azure ポータルに移動します。 -1. プライベート コンテナー レジストリ (Azure Container Registry) を作成します。 - 画面上のコマンドに従って、プライベート コンテナー レジストリを作成してください。 - Scalar 製品のコンテナ イメージは、プライベート コンテナ レジストリにコピーされます。 +1. プライベートコンテナーレジストリ (Azure Container Registry) を作成します。 + 画面上のコマンドに従って、プライベートコンテナーレジストリを作成してください。 + Scalar 製品のコンテナイメージは、プライベートコンテナレジストリにコピーされます。 1. 必要に応じてこれらの手順を繰り返します。 - Kubernetes 上で Scalar 製品を実行するには複数のコンテナー イメージが必要ですが、Azure Marketplace は一度に 1 つのコンテナー イメージのみをコピーします。 したがって、必要に応じて複数のソフトウェア プランを購読する (繰り返し購読操作) 必要があります。 + Kubernetes 上で Scalar 製品を実行するには複数のコンテナーイメージが必要ですが、Azure Marketplace は一度に1つのコンテナーイメージのみをコピーします。したがって、必要に応じて複数のソフトウェアプランを購読する (繰り返し購読操作) 必要があります。 - 必要なコンテナイメージは以下となります。コンテナイメージの詳細を表示するには、Scalar 製品を選択します。 - ScalarDB Cluster (BYOL) - - [非推奨] ScalarDB Server のデフォルト (2vCPU, 4GiB Memory) + - [非推奨] ScalarDB Server のデフォルト (2vCPU、 4GiB Memory) - [非推奨] ScalarDB GraphQL Server (optional) - [非推奨] ScalarDB SQL Server (optional) - - ScalarDL Ledger のデフォルト (2vCPU, 4GiB Memory) - - ScalarDL Auditor のデフォルト (2vCPU, 4GiB Memory) - - **ScalarDL Auditor** はオプションです。 **ScalarDL Auditor** を使用している場合は、サブスクライブしてください。 + - ScalarDL Ledger のデフォルト (2vCPU、 4GiB Memory) + - ScalarDL Auditor のデフォルト (2vCPU、 4GiB Memory) + - **ScalarDL Auditor** はオプションです。**ScalarDL Auditor** を使用している場合は、サブスクライブしてください。 - ScalarDL Schema Loader -これで、プライベート コンテナー レジストリから Scalar 製品のコンテナー イメージをプルできるようになりました。 +これで、プライベートコンテナーレジストリから Scalar 製品のコンテナーイメージをプルできるようになりました。 Azure Container Registry の詳細については、 [Azure Container Registry documentation](https://docs.microsoft.com/en-us/azure/container-registry/) を参照してください。 -## Scalar Helm Charts を使用して、プライベート コンテナー レジストリから AKS (Azure Kubernetes Service) にコンテナーをデプロイします。 +## Scalar Helm Charts を使用して、プライベートコンテナーレジストリから AKS (Azure Kubernetes Service) にコンテナーをデプロイします。 -1. AKS クラスターを作成するときに、プライベート コンテナー レジストリ (Azure Container Registry) を指定します。 +1. AKS クラスターを作成するときに、プライベートコンテナーレジストリ (Azure Container Registry) を指定します。 * GUI (Azure ポータル) - [**統合**] タブの **Azure Container Registry** パラメーターで、プライベート コンテナー レジストリを指定してください。 + [**統合**] タブの **Azure Container Registry** パラメーターで、プライベートコンテナーレジストリを指定してください。 * CLI ([az aks create](https://docs.microsoft.com/en-us/cli/azure/aks?view=azure-cli-latest#az-aks-create) コマンド) - `--attach-acr` フラグにプライベート コンテナー レジストリの名前を指定してください。 また、`--attach-acr` フラグを指定した [az aks update](https://docs.microsoft.com/en-us/cli/azure/aks?view=azure-cli-latest#az-aks-update) コマンドを使用して、既存の AKS クラスターの Azure Container Registry 統合を構成できます。 詳細は [Azure Official Document](https://docs.microsoft.com/en-us/azure/aks/cluster-container-registry-integration) をご参照ください。 + `--attach-acr` フラグにプライベートコンテナーレジストリの名前を指定してください。また、`--attach-acr` フラグを指定した [az aks update](https://docs.microsoft.com/en-us/cli/azure/aks?view=azure-cli-latest#az-aks-update) コマンドを使用して、既存の AKS クラスターの Azure Container Registry 統合を構成できます。詳細は [Azure Official Document](https://docs.microsoft.com/en-us/azure/aks/cluster-container-registry-integration) をご参照ください。 1. インストールする Scalar 製品の Helm Chart のカスタム値ファイルを更新します。 - プライベート コンテナ レジストリをカスタム値ファイルの `[].image.repository` の値として指定する必要があります。使用している製品に応じて、次の例を参照してください。 + プライベートコンテナレジストリをカスタム値ファイルの `[].image.repository` の値として指定する必要があります。使用している製品に応じて、次の例を参照してください。 @@ -159,7 +160,7 @@ Azure Container Registry の詳細については、 [Azure Container Registry d -## Scalar Helm Chart を使用して、プライベート コンテナー レジストリから AKS (Azure Kubernetes Service) 以外の Kubernetes にコンテナーをデプロイします。 +## Scalar Helm Chart を使用して、プライベートコンテナーレジストリから AKS (Azure Kubernetes Service) 以外の Kubernetes にコンテナーをデプロイします。 1. [Azure Official Document (How to install the Azure CLI)](https://docs.microsoft.com/en-us/cli/azure/install-azure-cli) に従って`az`コマンドをインストールします。 @@ -168,10 +169,10 @@ Azure Container Registry の詳細については、 [Azure Container Registry d az login ``` -1. [Azure Official Document (Azure Container Registry authentication with service principals)](https://docs.microsoft.com/en-us/azure/container-registry/container-registry-auth-service-principal) に従って、プライベート コンテナー レジストリへの認証用の **service principal** を作成します。 +1. [Azure Official Document (Azure Container Registry authentication with service principals)](https://docs.microsoft.com/en-us/azure/container-registry/container-registry-auth-service-principal) に従って、プライベートコンテナーレジストリへの認証用の **service principal** を作成します。 次のステップでは、**Service principal ID** と **Service principal パスワード**を使用します。 -1. プライベート コンテナー レジストリからコンテナー イメージをプルするための `reg-acr-secrets` シークレット リソースを作成します。 +1. プライベートコンテナーレジストリからコンテナーイメージをプルするための `reg-acr-secrets` シークレットリソースを作成します。 ```console kubectl create secret docker-registry reg-acr-secrets \ --docker-server= \ @@ -180,7 +181,7 @@ Azure Container Registry の詳細については、 [Azure Container Registry d ``` 1. インストールする Scalar 製品の Helm Chart のカスタム値ファイルを更新します。 - プライベート コンテナ レジストリをカスタム値ファイルの `[].image.repository` の値として指定する必要があります。 + プライベートコンテナレジストリをカスタム値ファイルの `[].image.repository` の値として指定する必要があります。 また、`[].imagePullSecrets` の値として `reg-acr-secrets` を指定する必要があります。使用している製品に応じて、次の例を参照してください。 @@ -234,5 +235,5 @@ Azure Container Registry の詳細については、 [Azure Container Registry d 1. 上記のカスタム値ファイルを含む Helm Chart を使用して、Scalar 製品をデプロイします。 - * 例 - このドキュメントの **Scalar Helm Charts を使用して、プライベート コンテナー レジストリから AKS (Azure Kubernetes Service) にコンテナーをデプロイします** セクションを参照してください。 + * 例 + このドキュメントの **Scalar Helm Charts を使用して、プライベートコンテナーレジストリから AKS (Azure Kubernetes Service) にコンテナーをデプロイします** セクションを参照してください。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/BackupNoSQL.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/BackupNoSQL.mdx index f16f5a38..afc68ea3 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/BackupNoSQL.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/BackupNoSQL.mdx @@ -2,40 +2,41 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Kubernetes 環境で NoSQL データベースをバックアップする -このガイドでは、ScalarDB または ScalarDL が Kubernetes 環境で使用するマネージド データベースのトランザクション的に一貫したバックアップを作成する方法について説明します。 NoSQL データベースまたは複数のデータベースを使用する場合は、トランザクションの一貫性のあるバックアップを作成するために ScalarDB または ScalarDL を**一時停止する必要がある**ことに注意してください。 +このガイドでは、ScalarDB または ScalarDL が Kubernetes 環境で使用するマネージドデータベースのトランザクション的に一貫したバックアップを作成する方法について説明します。NoSQL データベースまたは複数のデータベースを使用する場合は、トランザクション的に一貫したバックアップを作成するために ScalarDB または ScalarDL を**一時停止する必要がある**ことに注意してください。 ScalarDB がデータベースをバックアップする方法の詳細については、[A Guide on How to Backup and Restore Databases Used Through ScalarDB](https://scalardb.scalar-labs.com/docs/latest/backup-restore/) を参照してください。 -このガイドでは、ポイントインタイム リカバリ (PITR) または同等の機能を使用していることを前提としています。 そのため、復旧のためには継続的な取引がない期間を設ける必要があります。 その後、PITR を使用してデータをその特定の期間に復元できます。 進行中のトランザクションがない期間を作成せずにデータをある時点に復元すると、復元されたデータはトランザクション的に不整合となり、ScalarDB または ScalarDL がデータを適切に処理できなくなる可能性があります。 +このガイドでは、ポイントインタイムリカバリ (PITR) または同等の機能を使用していることを前提としています。そのため、復旧のためには継続的な取引がない期間を設ける必要があります。その後、PITR を使用してデータをその特定の期間に復元できます。進行中のトランザクションがない期間を作成せずにデータをある時点に復元すると、復元されたデータはトランザクション的に不整合となり、ScalarDB または ScalarDL がデータを適切に処理できなくなる可能性があります。 ## データを復元する期間を作成し、バックアップを実行します -1. バックアップ操作を開始する前に、`kubectl get pod` コマンドを実行して、次の 4 つの点を確認します。 +1. バックアップ操作を開始する前に、`kubectl get pod` コマンドを実行して、次の4つの点を確認します。 * **ScalarDB または ScalarDL ポッドの数。** ポッドの数を書き留めて、その数をバックアップの実行後のポッドの数と比較できるようにします。 * **`NAME` 列の ScalarDB または ScalarDL ポッド名。** バックアップの実行後にそれらの名前とポッド名を比較できるように、ポッド名を書き留めます。 - * **ScalarDB または ScalarDL ポッドのステータスは、`STATUS` 列で `Running` になっています。** バックアップを続行する前に、ポッドが実行中であることを確認してください。 次のステップではポッドを一時停止する必要があります。 + * **ScalarDB または ScalarDL ポッドのステータスは、`STATUS` 列で `Running` になっています。** バックアップを続行する前に、ポッドが実行中であることを確認してください。次のステップではポッドを一時停止する必要があります。 * ** `RESTARTS` 列の各ポッドの再起動回数。** バックアップ実行後の再起動回数と比較できるように、各ポッドの再起動回数を書き留めます。 -2. `scalar-admin` を使用して、ScalarDB または ScalarDL ポッドを一時停止します。 ポッドを一時停止する方法の詳細については、このガイドの [`scalar-admin` の使用の詳細](BackupNoSQL.mdx#scalar-admin-の使用の詳細) セクションを参照してください。 -3. `pause completed` 時間を書き留めます。 PITR 機能を使用してデータを復元する場合は、その時間を参照する必要があります。 -4. バックアップ機能を使用して、各データベースをバックアップします。 自動バックアップと PITR 機能を有効にしている場合、管理されたデータベースは自動的にバックアップを実行します。 クライアント クロックとデータベース クロック間のクロック スキューの問題を回避するのに十分な長い期間を作成できるように、約 10 秒待つ必要があることに注意してください。 この 10 秒の期間は、PITR 機能を使用してデータを復元できる正確な期間です。 -5. `scalar-admin` を使用して、ScalarDB または ScalarDL ポッドの一時停止を解除します。 ポッドの一時停止を解除する方法の詳細については、このガイドの [`scalar-admin` の使用の詳細](BackupNoSQL.mdx#scalar-admin-の使用の詳細) の使用の詳細」セクションを参照してください。 -6. `unpause started` 時刻を確認します。 PITR 機能を使用してデータを復元できる正確な期間を確認するには、`unpause started` 時間を確認する必要があります。 -7. バックアップの実行後にポッドのステータスを確認します。 バックアップ操作完了後、`kubectl get pod` コマンドを使用して以下の4点を確認する必要があります。 +2. `scalar-admin` を使用して、ScalarDB または ScalarDL ポッドを一時停止します。ポッドを一時停止する方法の詳細については、このガイドの [`scalar-admin` の使用の詳細](BackupNoSQL.mdx#scalar-admin-の使用の詳細)セクションを参照してください。 +3. `pause completed` 時間を書き留めます。PITR 機能を使用してデータを復元する場合は、その時間を参照する必要があります。 +4. バックアップ機能を使用して、各データベースをバックアップします。自動バックアップと PITR 機能を有効にしている場合、管理されたデータベースは自動的にバックアップを実行します。クライアントクロックとデータベースクロック間のクロックスキューの問題を回避するのに十分な長い期間を作成できるように、約10秒待つ必要があることに注意してください。この10秒の期間は、PITR 機能を使用してデータを復元できる正確な期間です。 +5. `scalar-admin` を使用して、ScalarDB または ScalarDL ポッドの一時停止を解除します。ポッドの一時停止を解除する方法の詳細については、このガイドの [`scalar-admin` の使用の詳細](BackupNoSQL.mdx#scalar-admin-の使用の詳細)の使用の詳細」セクションを参照してください。 +6. `unpause started` 時刻を確認します。PITR 機能を使用してデータを復元できる正確な期間を確認するには、`unpause started` 時間を確認する必要があります。 +7. バックアップの実行後にポッドのステータスを確認します。バックアップ操作完了後、`kubectl get pod` コマンドを使用して以下の4点を確認する必要があります。 * **ScalarDB または ScalarDL ポッドの数。** この数が、バックアップを実行する前に書き留めたポッドの数と一致することを確認します。 * **`NAME` 列の ScalarDB または ScalarDL ポッド名。** 名前がバックアップを実行する前に書き留めたポッド名と一致することを確認します。 * **ScalarDB または ScalarDL ポッドのステータスは、`STATUS` 列で `Running` になっています。** * **`RESTARTS` 列の各ポッドの再起動回数。** カウントが、バックアップを実行する前に書き留めた再起動回数と一致することを確認します。 - **2 つの値のいずれかが異なる場合は、バックアップ操作を最初から再試行する必要があります。** 値が異なる理由は、バックアップの実行中に追加または再起動されたポッドが原因である可能性があります。 そのような場合、それらのポッドは `unpause` 状態で実行されます。 ポッドが `unpause` 状態にあると、バックアップ データのトランザクションの不整合が発生します。 -8. **(Amazon DynamoDB のみ)** DynamoDB の PITR 機能を使用する場合、この機能は PITR を使用して別の名前テーブルでデータを復元するため、バックアップを作成するために追加の手順を実行する必要があります。 データを復元できる正確な期間を作成した後の追加手順の詳細については、[Kubernetes 環境でのデータベースの復元](RestoreDatabase.mdx#amazon-dynamodb) を参照してください。 + **2つの値のいずれかが異なる場合は、バックアップ操作を最初から再試行する必要があります。** 値が異なる理由は、バックアップの実行中に追加または再起動されたポッドが原因である可能性があります。そのような場合、それらのポッドは `unpause` 状態で実行されます。ポッドが `unpause` 状態にあると、バックアップデータのトランザクションの不整合が発生します。 +8. **(Amazon DynamoDB のみ)** DynamoDB の PITR 機能を使用する場合、この機能は PITR を使用して別の名前テーブルでデータを復元するため、バックアップを作成するために追加の手順を実行する必要があります。データを復元できる正確な期間を作成した後の追加手順の詳細については、[Kubernetes 環境でのデータベースの復元](RestoreDatabase.mdx#amazon-dynamodb) を参照してください。 ## 複数のデータベースをバックアップする -[Multi-storage Transactions](https://scalardb.scalar-labs.com/docs/latest/multi-storage-transactions/) または [Two-phase Commit Transactions](https://scalardb.scalar-labs.com/docs/latest/two-phase-commit-transactions/) 機能が使用するデータベースが 2 つ以上ある場合は、ScalarDB または ScalarDL のすべてのインスタンスを一時停止し、データベース内に進行中のトランザクションが存在しない同じ期間を作成する必要があります。 +[Multi-storage Transactions](https://scalardb.scalar-labs.com/docs/latest/multi-storage-transactions/) または [Two-phase Commit Transactions](https://scalardb.scalar-labs.com/docs/latest/two-phase-commit-transactions/) 機能が使用するデータベースが2つ以上ある場合は、ScalarDB または ScalarDL のすべてのインスタンスを一時停止し、データベース内に進行中のトランザクションが存在しない同じ期間を作成する必要があります。 複数のデータベース間の整合性を確保するには、PITR 機能を使用してデータベースを同じ時点に復元する必要があります。 @@ -43,9 +44,9 @@ ScalarDB がデータベースをバックアップする方法の詳細につ ### Kubernetes リソース名を確認する -SRV サービス URL を `-s (--srv-service-url)` フラグに指定する必要があります。 Kubernetes 環境では、SRV サービス URL の形式は `_my-port-name._my-port-protocol.my-svc.my-namespace.svc.cluster.local` です。 +SRV サービス URL を `-s (--srv-service-url)` フラグに指定する必要があります。Kubernetes 環境では、SRV サービス URL の形式は `_my-port-name._my-port-protocol.my-svc.my-namespace.svc.cluster.local` です。 -Scalar Helm Chart を使用して ScalarDB または ScalarDL をデプロイする場合、`my-svc` および `my-namespace` は環境によって異なる場合があります。 ヘッドレス サービス名を `my-svc` として指定し、名前空間を `my-namespace` として指定する必要があります。 +Scalar Helm Chart を使用して ScalarDB または ScalarDL をデプロイする場合、`my-svc` および `my-namespace` は環境によって異なる場合があります。ヘッドレスサービス名を `my-svc` として指定し、名前空間を `my-namespace` として指定する必要があります。 * 例 * ScalarDB Server @@ -61,7 +62,7 @@ Scalar Helm Chart を使用して ScalarDB または ScalarDL をデプロイす _scalardl-auditor-admin._tcp.-headless..svc.cluster.local ``` -Helm リリース名によって、ヘッドレス サービス名 `-headless` が決まります。 次のコマンドを実行すると、helm リリース名を確認できます。 +Helm リリース名によって、ヘッドレスサービス名 `-headless` が決まります。次のコマンドを実行すると、helm リリース名を確認できます。 ```console helm list -n ns-scalar @@ -76,7 +77,7 @@ scalardl-auditor ns-scalar 1 2023-02-09 19:32:03.0089 scalardl-ledger ns-scalar 1 2023-02-09 19:31:53.459548418 +0900 JST deployed scalardl-4.5.1 3.7.1 ``` -次のコマンドを実行すると、ヘッドレス サービス名 `-headless` を確認することもできます。 +次のコマンドを実行すると、ヘッドレスサービス名 `-headless` を確認することもできます。 ```console kubectl get service -n ns-scalar @@ -138,7 +139,7 @@ Kubernetes 環境の ScalarDB または ScalarDL ポッドに一時停止解除 ### `pause completed` 時刻と `unpause started` 時刻を確認する -`scalar-admin` ポッドは、`pause completed` 時刻と `unpause started` 時刻を標準出力に出力します。 `kubectl logs` コマンドを実行すると、それらの時間を確認することもできます。 +`scalar-admin` ポッドは、`pause completed` 時刻と `unpause started` 時刻を標準出力に出力します。`kubectl logs` コマンドを実行すると、それらの時間を確認することもできます。 ```console kubectl logs scalar-admin-pause diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/BackupRDB.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/BackupRDB.mdx index ed8398a7..cb8586f8 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/BackupRDB.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/BackupRDB.mdx @@ -2,19 +2,20 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Kubernetes 環境で RDB をバックアップする -このガイドでは、ScalarDB または ScalarDL が Kubernetes 環境で使用する単一のリレーショナル データベース (RDB) のバックアップを作成する方法について説明します。 このガイドは、クラウド サービス プロバイダーの管理されたデータベースを使用していることを前提としていることに注意してください。 +このガイドでは、ScalarDB または ScalarDL が Kubernetes 環境で使用する単一のリレーショナルデータベース (RDB) のバックアップを作成する方法について説明します。このガイドは、クラウドサービスプロバイダーの管理されたデータベースを使用していることを前提としていることに注意してください。 -[Multi-storage Transactions](https://scalardb.scalar-labs.com/docs/latest/multi-storage-transactions/) または [Two-phase Commit Transactions](https://scalardb.scalar-labs.com/docs/latest/two-phase-commit-transactions/) 機能が使用する RDB が 2 つ以上ある場合は、代わりに [Back up a NoSQL database in a Kubernetes environment](BackupNoSQL.mdx) の手順に従う必要があります。 +[Multi-storage Transactions](https://scalardb.scalar-labs.com/docs/latest/multi-storage-transactions/) または [Two-phase Commit Transactions](https://scalardb.scalar-labs.com/docs/latest/two-phase-commit-transactions/) 機能が使用する RDB が2つ以上ある場合は、代わりに [Kubernetes 環境で NoSQL データベースをバックアップする](BackupNoSQL.mdx)の手順に従う必要があります。 ## バックアップを実行する -バックアップを実行するには、管理されたデータベースで使用できる自動バックアップ機能を有効にする必要があります。 この機能を有効にすると、追加のバックアップ操作を実行する必要がなくなります。 各管理データベースのバックアップ構成の詳細については、次のガイドを参照してください。 +バックアップを実行するには、管理されたデータベースで使用できる自動バックアップ機能を有効にする必要があります。この機能を有効にすると、追加のバックアップ操作を実行する必要がなくなります。各管理データベースのバックアップ構成の詳細については、次のガイドを参照してください。 * [AWS での ScalarDB/ScalarDL デプロイメント用のデータベースのセットアップ](SetupDatabaseForAWS.mdx) * [Azure 上で ScalarDB/ScalarDL デプロイメント用のデータベースをセットアップする](SetupDatabaseForAzure.mdx) -マネージド RDB はトランザクションの観点からバックアップ データの一貫性を保つため、マネージド RDB のポイント イン タイム リカバリ (PITR) 機能を使用して、バックアップ データを任意の時点に復元できます。 +マネージド RDB はトランザクションの観点からバックアップデータの一貫性を保つため、マネージド RDB のポイントインタイムリカバリ (PITR) 機能を使用して、バックアップデータを任意の時点に復元できます。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/BackupRestoreGuide.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/BackupRestoreGuide.mdx index 1fd1a5e3..bc70bfc1 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/BackupRestoreGuide.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/BackupRestoreGuide.mdx @@ -2,17 +2,18 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Kubernetes 環境で ScalarDB または ScalarDL データをバックアップおよび復元する -このガイドでは、Kubernetes 環境で ScalarDB または ScalarDL データをバックアップおよび復元する方法について説明します。 このガイドは、クラウド サービス プロバイダーのマネージド データベースを ScalarDB または ScalarDL のバックエンド データベースとして使用していることを前提としていることに注意してください。 以下は、このガイドで使用が想定されている管理データベースのリストです。 +このガイドでは、Kubernetes 環境で ScalarDB または ScalarDL データをバックアップおよび復元する方法について説明します。このガイドは、クラウドサービスプロバイダーのマネージドデータベースを ScalarDB または ScalarDL のバックエンドデータベースとして使用していることを前提としていることに注意してください。以下は、このガイドで使用が想定されている管理データベースのリストです。 * NoSQL: トランザクションをサポートしません * Amazon DynamoDB * Azure Cosmos DB for NoSQL -* リレーショナルデータベース(RDB):トランザクションをサポート - * Amazon RDS +* リレーショナルデータベース (RDB):トランザクションをサポート + * Amazon RDS * MySQL * Oracle * PostgreSQL @@ -34,14 +35,14 @@ ScalarDB で使用されるデータベースをトランザクション的に #### NoSQL または複数のデータベース -NoSQL データベースを使用している場合、または [Multi-storage Transactions](https://scalardb.scalar-labs.com/docs/latest/multi-storage-transactions/) または [Two-phase Commit Transactions](https://scalardb.scalar-labs.com/docs/latest/two-phase-commit-transactions/) 機能が使用するデータベースが 2 つ以上ある場合、詳細については [Kubernetes 環境で NoSQL データベースをバックアップする](BackupNoSQL.mdx) を参照してください。 バックアップの実行方法について。 +NoSQL データベースを使用している場合、または [Multi-storage Transactions](https://scalardb.scalar-labs.com/docs/latest/multi-storage-transactions/) または [Two-phase Commit Transactions](https://scalardb.scalar-labs.com/docs/latest/two-phase-commit-transactions/) 機能が使用するデータベースが2つ以上ある場合、詳細については [Kubernetes 環境で NoSQL データベースをバックアップする](BackupNoSQL.mdx)を参照してください。バックアップの実行方法について。 #### 単一 RDB -単一のRDBを使用している場合のバックアップ方法については、[Kubernetes環境でRDBをバックアップする](BackupRDB.mdx) を参照してください。 +単一のRDBを使用している場合のバックアップ方法については、[Kubernetes環境でRDBをバックアップする](BackupRDB.mdx)を参照してください。 -[Multi-storage Transactions](https://scalardb.scalar-labs.com/docs/latest/multi-storage-transactions/) または [Two-phase Commit Transactions](https://scalardb.scalar-labs.com/docs/latest/two-phase-commit-transactions/) 機能が使用する RDB が 2 つ以上ある場合は、代わりに [Kubernetes 環境で NoSQL データベースをバックアップする](BackupNoSQL.mdx) の手順に従う必要があります。 +[Multi-storage Transactions](https://scalardb.scalar-labs.com/docs/latest/multi-storage-transactions/) または [Two-phase Commit Transactions](https://scalardb.scalar-labs.com/docs/latest/two-phase-commit-transactions/) 機能が使用する RDB が2つ以上ある場合は、代わりに [Kubernetes 環境で NoSQL データベースをバックアップする](BackupNoSQL.mdx)の手順に従う必要があります。 ## データベースを復元する -管理されたデータベースからデータを復元する方法の詳細については、[Kubernetes 環境でのデータベースの復元](RestoreDatabase.mdx) を参照してください。 +管理されたデータベースからデータを復元する方法の詳細については、[Kubernetes 環境でのデータベースの復元](RestoreDatabase.mdx)を参照してください。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateAKSClusterForScalarDB.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateAKSClusterForScalarDB.mdx index 137eb72e..1ee3c5e8 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateAKSClusterForScalarDB.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateAKSClusterForScalarDB.mdx @@ -3,6 +3,7 @@ tags: - Enterprise Standard - Enterprise Premium - Deprecated +displayed_sidebar: docsJapanese --- # ScalarDB Server 用の AKS クラスターを作成するためのガイドライン @@ -11,11 +12,11 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、ScalarDB Server デプロイ用の Azure Kubernetes Service (AKS) クラスターを作成するための要件と推奨事項について説明します。 ScalarDB Server を AKS クラスターにデプロイする方法の詳細については、[AKS に ScalarDB Server をデプロイする](ManualDeploymentGuideScalarDBServerOnAKS.mdx) を参照してください。 +このドキュメントでは、ScalarDB Server デプロイ用の Azure Kubernetes Service (AKS) クラスターを作成するための要件と推奨事項について説明します。ScalarDB Server を AKS クラスターにデプロイする方法の詳細については、[AKS に ScalarDB Server をデプロイする](ManualDeploymentGuideScalarDBServerOnAKS.mdx)を参照してください。 ## あなたが始める前に -次の要件、推奨事項、およびプロジェクトの要件に基づいて AKS クラスターを作成する必要があります。 AKS クラスターの作成方法の詳細については、環境で使用しているツールに基づいて、次の Microsoft 公式ドキュメントを参照してください。 +次の要件、推奨事項、およびプロジェクトの要件に基づいて AKS クラスターを作成する必要があります。AKS クラスターの作成方法の詳細については、環境で使用しているツールに基づいて、次の Microsoft 公式ドキュメントを参照してください。 * [Azure CLI](https://learn.microsoft.com/en-us/azure/aks/learn/quick-kubernetes-deploy-cli) * [PowerShell](https://learn.microsoft.com/en-us/azure/aks/learn/quick-kubernetes-deploy-powershell) @@ -25,16 +26,16 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; ScalarDB Server を展開するときは、次のことを行う必要があります。 -* [サポートされている Kubernetes バージョン](https://scalardb.scalar-labs.com/docs/latest/requirements/#kubernetes) を使用して AKS クラスターを作成します。 +* [サポートされている Kubernetes バージョン](https://scalardb.scalar-labs.com/docs/latest/requirements/#kubernetes)を使用して AKS クラスターを作成します。 * Kubernetes のバージョンとプロジェクトの要件に基づいて AKS クラスターを構成します。 ## 推奨事項 (オプション) -以下に、ScalarDB Server を展開するための推奨事項をいくつか示します。 これらの推奨事項は必須ではないため、ニーズに基づいてこれらの推奨事項を適用するかどうかを選択できます。 +以下に、ScalarDB Server を展開するための推奨事項をいくつか示します。これらの推奨事項は必須ではないため、ニーズに基づいてこれらの推奨事項を適用するかどうかを選択できます。 -### 少なくとも 3 つのワーカーノードと 3 つのポッドを作成します +### 少なくとも3つのワーカーノードと3つのポッドを作成します -AKS クラスターの高可用性を確保するには、少なくとも 3 つのワーカーノードを使用し、ワーカーノード全体に少なくとも 3 つのポッドをデプロイする必要があります。 3 つのポッドをワーカーノードに分散させるための `podAntiAffinity` の [サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardb-custom-values.yaml) を参照できます。 +AKS クラスターの高可用性を確保するには、少なくとも3つのワーカーノードを使用し、ワーカーノード全体に少なくとも3つのポッドをデプロイする必要があります。3つのポッドをワーカーノードに分散させるための `podAntiAffinity` の [サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardb-custom-values.yaml)を参照できます。 :::note @@ -42,44 +43,44 @@ AKS クラスターの高可用性を確保するには、少なくとも 3 つ ::: -### ScalarDB Server ノード プールのワーカーノードには 4vCPU / 8GB メモリ ノードを使用します。 +### ScalarDB Server ノードプールのワーカーノードには 4vCPU / 8GB メモリノードを使用します。 -商用ライセンスの観点から、ScalarDB Server を実行する 1 つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。 ScalarDB Server ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 +商用ライセンスの観点から、ScalarDB Server を実行する1つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。ScalarDB Server ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 * ScalarDB Server ポッド (2vCPU / 4GB) * Envoy プロキシ -* アプリケーション ポッド (同じワーカーノード上でアプリケーションのポッドを実行することを選択した場合) +* アプリケーションポッド (同じワーカーノード上でアプリケーションのポッドを実行することを選択した場合) * 監視コンポーネント (`kube-prometheus-stack` などの監視コンポーネントをデプロイする場合) * Kubernetes コンポーネント -これを念頭に置き、[少なくとも 3 つのワーカーノードと 3 つのポッドを作成する](#create-at-least-three-worker-nodes-and-three-pods) で説明されているように、少なくとも 4vCPU / 8 GB のメモリ リソースを持つワーカーノードを使用し、可用性のために少なくとも 3 つのワーカーノードを使用する必要があります。 +これを念頭に置き、[少なくとも3つのワーカーノードと3つのポッドを作成する](#create-at-least-three-worker-nodes-and-three-pods)で説明されているように、少なくとも 4vCPU / 8 GB のメモリリソースを持つワーカーノードを使用し、可用性のために少なくとも3つのワーカーノードを使用する必要があります。 -ただし、運用環境では、ノードあたり少なくとも 4vCPU / 8GB のメモリ リソースを備えた 3 つのノードが最小条件となります。 また、システムのワークロードに応じて、AKS クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDB Server ポッド、アプリケーションのポッドなど) も考慮する必要があります。 また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 +ただし、運用環境では、ノードあたり少なくとも 4vCPU / 8GB のメモリリソースを備えた3つのノードが最小条件となります。また、システムのワークロードに応じて、AKS クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDB Server ポッド、アプリケーションのポッドなど) も考慮する必要があります。また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 -### ScalarDB Server ポッドのノード プールを作成する +### ScalarDB Server ポッドのノードプールを作成する -AKS は、既定でシステム ポッド (AKS を実行し続けるために使用される) に優先される **agentpool** という名前のシステム ノード プールを 1 つ作成します。 ScalarDB Server ポッド用に **user** モードで別のノード プールを作成し、この追加のノード プールに ScalarDB Server ポッドをデプロイすることをお勧めします。 +AKS は、既定でシステムポッド (AKS を実行し続けるために使用される) に優先される **agentpool** という名前のシステムノードプールを1つ作成します。ScalarDB Server ポッド用に **user** モードで別のノードプールを作成し、この追加のノードプールに ScalarDB Server ポッドをデプロイすることをお勧めします。 -### AKS でクラスター オートスケーラーを構成する +### AKS でクラスターオートスケーラーを構成する -[Horizontal Pod Autoscaler](https://learn.microsoft.com/en-us/azure/aks/concepts-scale#horizontal-pod-autoscaler) を使用して ScalarDB Server ポッドを自動的にスケーリングする場合は、AKS でもクラスター オートスケーラーを構成する必要があります。 詳細については、Microsoft の公式ドキュメント [Cluster autoscaler](https://learn.microsoft.com/en-us/azure/aks/concepts-scale#cluster-autoscaler) を参照してください。 +[Horizontal Pod Autoscaler](https://learn.microsoft.com/en-us/azure/aks/concepts-scale#horizontal-pod-autoscaler) を使用して ScalarDB Server ポッドを自動的にスケーリングする場合は、AKS でもクラスターオートスケーラーを構成する必要があります。詳細については、Microsoft の公式ドキュメント [Cluster autoscaler](https://learn.microsoft.com/en-us/azure/aks/concepts-scale#cluster-autoscaler) を参照してください。 -さらに、クラスター オートスケーラーを構成する場合は、AKS がスケーリング後にネットワークの問題なく動作できるように、十分な数の IP が存在することを確認するために、AKS の仮想ネットワーク (VNet) にサブネットを作成する必要があります。 必要な IP の数は、ネットワーク プラグインによって異なります。 必要な IP 数の詳細については、以下を参照してください。 +さらに、クラスターオートスケーラーを構成する場合は、AKS がスケーリング後にネットワークの問題なく動作できるように、十分な数の IP が存在することを確認するために、AKS の仮想ネットワーク (VNet) にサブネットを作成する必要があります。必要な IP の数は、ネットワークプラグインによって異なります。必要な IP 数の詳細については、以下を参照してください。 * [Use kubenet networking with your own IP address ranges in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/configure-kubenet) * [Configure Azure CNI networking in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/configure-azure-cni) -### プライベート ネットワーク上に AKS クラスターを作成する +### プライベートネットワーク上に AKS クラスターを作成する -ScalarDB Server はインターネット アクセス経由でユーザーにサービスを直接提供しないため、プライベート ネットワーク (VNet のプライベート サブネット) 上に AKS クラスターを作成する必要があります。 アプリケーションからプライベート ネットワーク経由で ScalarDB Server にアクセスすることをお勧めします。 +ScalarDB Server はインターネットアクセス経由でユーザーにサービスを直接提供しないため、プライベートネットワーク (VNet のプライベートサブネット) 上に AKS クラスターを作成する必要があります。アプリケーションからプライベートネットワーク経由で ScalarDB Server にアクセスすることをお勧めします。 ### 必要に応じて、Azure CNI を使用して AKS クラスターを作成します。 -AKS の既定のネットワーク プラグインは [kubenet](https://learn.microsoft.com/en-us/azure/aks/configure-kubenet) です。 要件が kubenet と一致しない場合は、[Azure Container Networking Interface (CNI)](https://learn.microsoft.com/en-us/azure/aks/configure-azure-cni) を使用する必要があります。 +AKS の既定のネットワークプラグインは [kubenet](https://learn.microsoft.com/en-us/azure/aks/configure-kubenet) です。要件が kubenet と一致しない場合は、[Azure Container Networking Interface (CNI)](https://learn.microsoft.com/en-us/azure/aks/configure-azure-cni) を使用する必要があります。 -たとえば、1 つの AKS クラスターに複数の ScalarDB Server 環境をデプロイし (マルチテナントの ScalarDB Server をデプロイするなど)、[Kubernetes NetworkPolicies](https://kubernetes.io/docs/concepts/services-networking/network-policies/) を使用して各テナント間の接続を制御したい場合、kubenet は Calico Network のみをサポートします。 [Azure support team does not support](https://learn.microsoft.com/en-us/azure/aks/use-network-policies#differences-between-azure-network-policy-manager-and-calico-network-policy-and-their-capabilities) ポリシー。 Calico ネットワーク ポリシーは、Calico コミュニティまたは追加の有料サポートを通じてのみサポートされることに注意してください。 +たとえば、1つの AKS クラスターに複数の ScalarDB Server 環境をデプロイし (マルチテナントの ScalarDB Server をデプロイするなど)、[Kubernetes NetworkPolicies](https://kubernetes.io/docs/concepts/services-networking/network-policies/) を使用して各テナント間の接続を制御したい場合、kubenet は Calico Network のみをサポートします。[Azure support team does not support](https://learn.microsoft.com/en-us/azure/aks/use-network-policies#differences-between-azure-network-policy-manager-and-calico-network-policy-and-their-capabilities) ポリシー。Calico ネットワークポリシーは、Calico コミュニティまたは追加の有料サポートを通じてのみサポートされることに注意してください。 -ただし、Azure サポート チームとエンジニアリング チームは Azure CNI をサポートします。 したがって、Kubernetes NetworkPolicies を使用して Azure サポート チームからサポートを受けたい場合は、Azure CNI を使用する必要があります。 kubenet と Azure CNI の違いの詳細については、次の Microsoft 公式ドキュメントを参照してください。 +ただし、Azure サポートチームとエンジニアリングチームは Azure CNI をサポートします。したがって、Kubernetes NetworkPolicies を使用して Azure サポートチームからサポートを受けたい場合は、Azure CNI を使用する必要があります。kubenet と Azure CNI の違いの詳細については、次の Microsoft 公式ドキュメントを参照してください。 * [Network concepts for applications in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/concepts-network) * [Use kubenet networking with your own IP address ranges in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/configure-kubenet) @@ -87,7 +88,7 @@ AKS の既定のネットワーク プラグインは [kubenet](https://learn.mi ### 要件に基づいていくつかのセキュリティ機能を使用して接続を制限する -ScalarDB Server では未使用の接続を制限する必要があります。 未使用の接続を制限するには、[network security groups](https://learn.microsoft.com/en-us/azure/virtual-network/network-security-groups-overview) など、Azure のいくつかのセキュリティ機能を使用できます。 +ScalarDB Server では未使用の接続を制限する必要があります。未使用の接続を制限するには、[network security groups](https://learn.microsoft.com/en-us/azure/virtual-network/network-security-groups-overview) など、Azure のいくつかのセキュリティ機能を使用できます。 ScalarDB Server がデフォルトで使用する接続 (ポート) は次のとおりです。 @@ -100,7 +101,7 @@ ScalarDB Server がデフォルトで使用する接続 (ポート) は次のと :::note -- 構成ファイル (`database.properties`) で ScalarDB Server のデフォルトのリスニング ポートを変更する場合は、構成したポートを使用して接続を許可する必要があります。 -- AKS 自体が使用する接続も許可する必要があります。 AKS トラフィック要件の詳細については、[Control egress traffic using Azure Firewall in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/limit-egress-traffic) を参照してください。 +- 構成ファイル (`database.properties`) で ScalarDB Server のデフォルトのリスニングポートを変更する場合は、構成したポートを使用して接続を許可する必要があります。 +- AKS 自体が使用する接続も許可する必要があります。AKS トラフィック要件の詳細については、[Control egress traffic using Azure Firewall in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/limit-egress-traffic) を参照してください。 ::: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateAKSClusterForScalarDL.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateAKSClusterForScalarDL.mdx index a02b1666..4b551088 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateAKSClusterForScalarDL.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateAKSClusterForScalarDL.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsJapanese --- # ScalarDL Ledger の AKS クラスターを作成するためのガイドライン @@ -7,11 +8,11 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、ScalarDL Ledger デプロイ用の Azure Kubernetes Service (AKS) クラスターを作成するための要件と推奨事項について説明します。 ScalarDL Ledger を AKS クラスターにデプロイする方法の詳細については、[AKS に ScalarDL Ledger をデプロイする](ManualDeploymentGuideScalarDLOnAKS.mdx) を参照してください。 +このドキュメントでは、ScalarDL Ledger デプロイ用の Azure Kubernetes Service (AKS) クラスターを作成するための要件と推奨事項について説明します。ScalarDL Ledger を AKS クラスターにデプロイする方法の詳細については、[AKS に ScalarDL Ledger をデプロイする](ManualDeploymentGuideScalarDLOnAKS.mdx)を参照してください。 ## あなたが始める前に -次の要件、推奨事項、およびプロジェクトの要件に基づいて AKS クラスターを作成する必要があります。 AKS クラスターの作成方法の詳細については、環境で使用しているツールに基づいて、次の Microsoft 公式ドキュメントを参照してください。 +次の要件、推奨事項、およびプロジェクトの要件に基づいて AKS クラスターを作成する必要があります。AKS クラスターの作成方法の詳細については、環境で使用しているツールに基づいて、次の Microsoft 公式ドキュメントを参照してください。 * [Azure CLI](https://learn.microsoft.com/en-us/azure/aks/learn/quick-kubernetes-deploy-cli) * [PowerShell](https://learn.microsoft.com/en-us/azure/aks/learn/quick-kubernetes-deploy-powershell) @@ -21,22 +22,22 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; ScalarDL Ledger を展開するときは、次のことを行う必要があります。 -* [サポートされている Kubernetes バージョン](https://scalardb.scalar-labs.com/docs/latest/requirements/#kubernetes) を使用して AKS クラスターを作成します。 +* [サポートされている Kubernetes バージョン](https://scalardb.scalar-labs.com/docs/latest/requirements/#kubernetes)を使用して AKS クラスターを作成します。 * Kubernetes のバージョンとプロジェクトの要件に基づいて AKS クラスターを構成します。 :::warning -ScalarDL でのビザンチン障害検出が適切に機能するには、ScalarDL Ledger デプロイと同じ AKS クラスターにアプリケーション ポッドをデプロイしないでください。 +ScalarDL でのビザンチン障害検出が適切に機能するには、ScalarDL Ledger デプロイと同じ AKS クラスターにアプリケーションポッドをデプロイしないでください。 ::: ## 推奨事項 (オプション) -以下は、ScalarDL Ledger を展開するための推奨事項の一部です。 これらの推奨事項は必須ではないため、ニーズに基づいてこれらの推奨事項を適用するかどうかを選択できます。 +以下は、ScalarDL Ledger を展開するための推奨事項の一部です。これらの推奨事項は必須ではないため、ニーズに基づいてこれらの推奨事項を適用するかどうかを選択できます。 -### 少なくとも 3 つのワーカーノードと 3 つのポッドを作成します +### 少なくとも3つのワーカーノードと3つのポッドを作成します -AKS クラスターの高可用性を確保するには、少なくとも 3 つのワーカーノードを使用し、ワーカーノード全体に少なくとも 3 つのポッドをデプロイする必要があります。 3 つのポッドをワーカーノードに分散させるための `podAntiAffinity` の [サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-custom-values.yaml) を参照できます。 +AKS クラスターの高可用性を確保するには、少なくとも3つのワーカーノードを使用し、ワーカーノード全体に少なくとも3つのポッドをデプロイする必要があります。3つのポッドをワーカーノードに分散させるための `podAntiAffinity` の [サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-custom-values.yaml)を参照できます。 :::note @@ -44,43 +45,43 @@ AKS クラスターの高可用性を確保するには、少なくとも 3 つ ::: -### ScalarDL Ledger ノード プールのワーカーノードには 4vCPU / 8GB メモリ ノードを使用します +### ScalarDL Ledger ノードプールのワーカーノードには 4vCPU / 8GB メモリノードを使用します -商用ライセンスの観点から、ScalarDL Ledger を実行する 1 つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。 ScalarDL Ledger ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 +商用ライセンスの観点から、ScalarDL Ledger を実行する1つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。ScalarDL Ledger ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 * ScalarDL Ledger ポッド (2vCPU / 4GB) * Envoy プロキシ * 監視コンポーネント (`kube-prometheus-stack` などの監視コンポーネントをデプロイする場合) * Kubernetes コンポーネント -これを念頭に置き、[少なくとも 3 つのワーカーノードと 3 つのポッドを作成する](#create-at-least-three-worker-nodes-and-three-pods) で説明されているように、少なくとも 4vCPU / 8 GB のメモリ リソースを持つワーカーノードを使用し、可用性のために少なくとも 3 つのワーカーノードを使用する必要があります。 +これを念頭に置き、[少なくとも3つのワーカーノードと3つのポッドを作成する](#create-at-least-three-worker-nodes-and-three-pods)で説明されているように、少なくとも 4vCPU / 8 GB のメモリリソースを持つワーカーノードを使用し、可用性のために少なくとも3つのワーカーノードを使用する必要があります。 -ただし、ノードあたり少なくとも 4vCPU / 8GB のメモリ リソースを備えた 3 つのノードが運用環境の最小環境となります。 また、システムのワークロードに応じて、AKS クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDL Ledger ポッドなど) も考慮する必要があります。 さらに、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、 ワーカーノードのリソースを決定するときは、ワーカーノード上のポッドの最大数を考慮する必要があります。 +ただし、ノードあたり少なくとも 4vCPU / 8GB のメモリリソースを備えた3つのノードが運用環境の最小環境となります。また、システムのワークロードに応じて、AKS クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDL Ledger ポッドなど) も考慮する必要があります。さらに、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、 ワーカーノードのリソースを決定するときは、ワーカーノード上のポッドの最大数を考慮する必要があります。 -### ScalarDL Ledger ポッドのノード プールを作成する +### ScalarDL Ledger ポッドのノードプールを作成する -AKS は、既定でシステム ポッド (AKS を実行し続けるために使用される) に優先される **agentpool** という名前のシステム ノード プールを 1 つ作成します。 ScalarDL Ledger ポッド用に **user** モードで別のノード プールを作成し、この追加のノード プールに ScalarDL Ledger ポッドをデプロイすることをお勧めします。 +AKS は、既定でシステムポッド (AKS を実行し続けるために使用される) に優先される **agentpool** という名前のシステムノードプールを1つ作成します。ScalarDL Ledger ポッド用に **user** モードで別のノードプールを作成し、この追加のノードプールに ScalarDL Ledger ポッドをデプロイすることをお勧めします。 -### AKS でクラスター オートスケーラーを構成する +### AKS でクラスターオートスケーラーを構成する -[Horizontal Pod Autoscaler](https://learn.microsoft.com/en-us/azure/aks/concepts-scale#horizontal-pod-autoscaler) を使用して ScalarDL Ledger ポッドを自動的にスケーリングする場合は、クラスターを構成する必要があります。 AKS のオートスケーラーも同様です。 詳細については、[Cluster autoscaler](https://learn.microsoft.com/en-us/azure/aks/concepts-scale#cluster-autoscaler) にある Microsoft の公式ドキュメントを参照してください。 +[Horizontal Pod Autoscaler](https://learn.microsoft.com/en-us/azure/aks/concepts-scale#horizontal-pod-autoscaler) を使用して ScalarDL Ledger ポッドを自動的にスケーリングする場合は、クラスターを構成する必要があります。AKS のオートスケーラーも同様です。詳細については、[Cluster autoscaler](https://learn.microsoft.com/en-us/azure/aks/concepts-scale#cluster-autoscaler) にある Microsoft の公式ドキュメントを参照してください。 -さらに、クラスター オートスケーラーを構成する場合は、AKS がスケーリング後にネットワークの問題なく動作できるように、十分な数の IP が存在することを確認するために、AKS の仮想ネットワーク (VNet) にサブネットを作成する必要があります。 必要な IP の数は、ネットワーク プラグインによって異なります。 必要な IP 数の詳細については、以下を参照してください。 +さらに、クラスターオートスケーラーを構成する場合は、AKS がスケーリング後にネットワークの問題なく動作できるように、十分な数の IP が存在することを確認するために、AKS の仮想ネットワーク (VNet) にサブネットを作成する必要があります。必要な IP の数は、ネットワークプラグインによって異なります。必要な IP 数の詳細については、以下を参照してください。 * [Use kubenet networking with your own IP address ranges in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/configure-kubenet) * [Configure Azure CNI networking in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/configure-azure-cni) -### プライベート ネットワーク上に AKS クラスターを作成する +### プライベートネットワーク上に AKS クラスターを作成する -ScalarDL Ledger はインターネット アクセス経由でユーザーにサービスを直接提供しないため、プライベート ネットワーク (VNet のプライベート サブネット) 上に AKS クラスターを作成する必要があります。 アプリケーションからプライベート ネットワーク経由で ScalarDL Ledger にアクセスすることをお勧めします。 +ScalarDL Ledger はインターネットアクセス経由でユーザーにサービスを直接提供しないため、プライベートネットワーク (VNet のプライベートサブネット) 上に AKS クラスターを作成する必要があります。アプリケーションからプライベートネットワーク経由で ScalarDL Ledger にアクセスすることをお勧めします。 ### 必要に応じて、Azure CNI を使用して AKS クラスターを作成します。 -AKS の既定のネットワーク プラグインは [kubenet](https://learn.microsoft.com/en-us/azure/aks/configure-kubenet) です。 要件が kubenet と一致しない場合は、[Azure Container Networking Interface (CNI)](https://learn.microsoft.com/en-us/azure/aks/configure-azure-cni) を使用する必要があります。 +AKS の既定のネットワークプラグインは [kubenet](https://learn.microsoft.com/en-us/azure/aks/configure-kubenet) です。要件が kubenet と一致しない場合は、[Azure Container Networking Interface (CNI)](https://learn.microsoft.com/en-us/azure/aks/configure-azure-cni) を使用する必要があります。 -たとえば、1 つの AKS クラスターに複数の ScalarDL Ledger 環境をデプロイし (マルチテナントの ScalarDL Ledger をデプロイするなど)、[Kubernetes NetworkPolicies](https://kubernetes.io/docs/concepts/services-networking/network-policies/) を使用して各テナント間の接続を制御する場合、kubenet は Calico ネットワーク ポリシーのみをサポートします。 [Azure サポート チームはサポートしていません](https://learn.microsoft.com/en-us/azure/aks/use-network-policies#differences-between-azure-network-policy-manager-and-calico-network-policy-and-their-capabilities)。 Calico ネットワーク ポリシーは、Calico コミュニティまたは追加の有料サポートを通じてのみサポートされることに注意してください。 +たとえば、1つの AKS クラスターに複数の ScalarDL Ledger 環境をデプロイし (マルチテナントの ScalarDL Ledger をデプロイするなど)、[Kubernetes NetworkPolicies](https://kubernetes.io/docs/concepts/services-networking/network-policies/) を使用して各テナント間の接続を制御する場合、kubenet は Calico ネットワークポリシーのみをサポートします。[Azure サポートチームはサポートしていません](https://learn.microsoft.com/en-us/azure/aks/use-network-policies#differences-between-azure-network-policy-manager-and-calico-network-policy-and-their-capabilities)。Calico ネットワークポリシーは、Calico コミュニティまたは追加の有料サポートを通じてのみサポートされることに注意してください。 -ただし、Azure サポート チームとエンジニアリング チームは Azure CNI をサポートします。 したがって、Kubernetes NetworkPolicies を使用して Azure サポート チームからサポートを受けたい場合は、Azure CNI を使用する必要があります。 kubenet と Azure CNI の違いの詳細については、次の Microsoft 公式ドキュメントを参照してください。 +ただし、Azure サポートチームとエンジニアリングチームは Azure CNI をサポートします。したがって、Kubernetes NetworkPolicies を使用して Azure サポートチームからサポートを受けたい場合は、Azure CNI を使用する必要があります。kubenet と Azure CNI の違いの詳細については、次の Microsoft 公式ドキュメントを参照してください。 * [Network concepts for applications in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/concepts-network) * [Use kubenet networking with your own IP address ranges in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/configure-kubenet) @@ -88,14 +89,14 @@ AKS の既定のネットワーク プラグインは [kubenet](https://learn.mi ### 要件に基づいていくつかのセキュリティ機能を使用して接続を制限する -ScalarDL Ledger では未使用の接続を制限する必要があります。 未使用の接続を制限するには、[ネットワーク セキュリティ グループ] など、Azure のいくつかのセキュリティ機能を使用できます。 +ScalarDL Ledger では未使用の接続を制限する必要があります。未使用の接続を制限するには、[ネットワークセキュリティグループ] など、Azure のいくつかのセキュリティ機能を使用できます。 ScalarDL Ledger がデフォルトで使用する接続 (ポート) は次のとおりです。 * ScalarDL Ledger * 50051/TCP (クライアントからのリクエストを受け付ける) * 50052/TCP (クライアントからの特権リクエストを受け入れます) - * 50053/TCP (scalar-admin クライアント ツールからの一時停止および一時停止解除リクエストを受け入れます) + * 50053/TCP (scalar-admin クライアントツールからの一時停止および一時停止解除リクエストを受け入れます) * 8080/TCP (監視リクエストを受け付ける) * Scalar Envoy (ScalarDL Ledger とともに使用) * 50051/TCP (ScalarDL Ledger の負荷分散) @@ -104,7 +105,7 @@ ScalarDL Ledger がデフォルトで使用する接続 (ポート) は次のと :::note -- 設定ファイル (`ledger.properties`) で ScalarDL Ledger のデフォルトのリスニング ポートを変更する場合は、設定したポートを使用して接続を許可する必要があります。 -- AKS 自体が使用する接続も許可する必要があります。 AKS トラフィック要件の詳細については、[Azure Kubernetes Service (AKS) の Azure Firewall を使用した下りトラフィックの制御](https://learn.microsoft.com/en-us/azure/aks/limit-egress-traffic) を参照してください。 +- 設定ファイル (`ledger.properties`) で ScalarDL Ledger のデフォルトのリスニングポートを変更する場合は、設定したポートを使用して接続を許可する必要があります。 +- AKS 自体が使用する接続も許可する必要があります。AKS トラフィック要件の詳細については、[Azure Kubernetes Service (AKS) の Azure Firewall を使用した下りトラフィックの制御](https://learn.microsoft.com/en-us/azure/aks/limit-egress-traffic)を参照してください。 ::: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateAKSClusterForScalarDLAuditor.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateAKSClusterForScalarDLAuditor.mdx index dac34d89..0cbf387a 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateAKSClusterForScalarDLAuditor.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateAKSClusterForScalarDLAuditor.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsJapanese --- # ScalarDL Ledger および ScalarDL Auditor 用の AKS クラスターを作成するためのガイドライン @@ -7,11 +8,11 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、ScalarDL Ledger および ScalarDL Auditor のデプロイ用の Azure Kubernetes Service (AKS) クラスターを作成するための要件と推奨事項について説明します。 AKS クラスターに ScalarDL Ledger と ScalarDL Auditor をデプロイする方法の詳細については、[AKS に ScalarDL Ledger と ScalarDL Auditor をデプロイする](ManualDeploymentGuideScalarDLAuditorOnAKS.mdx) を参照してください。 +このドキュメントでは、ScalarDL Ledger および ScalarDL Auditor のデプロイ用の Azure Kubernetes Service (AKS) クラスターを作成するための要件と推奨事項について説明します。AKS クラスターに ScalarDL Ledger と ScalarDL Auditor をデプロイする方法の詳細については、[AKS に ScalarDL Ledger と ScalarDL Auditor をデプロイする](ManualDeploymentGuideScalarDLAuditorOnAKS.mdx)を参照してください。 ## あなたが始める前に -次の要件、推奨事項、およびプロジェクトの要件に基づいて AKS クラスターを作成する必要があります。 AKS クラスターの作成方法の詳細については、環境で使用しているツールに基づいて、次の Microsoft 公式ドキュメントを参照してください。 +次の要件、推奨事項、およびプロジェクトの要件に基づいて AKS クラスターを作成する必要があります。AKS クラスターの作成方法の詳細については、環境で使用しているツールに基づいて、次の Microsoft 公式ドキュメントを参照してください。 * [Azure CLI](https://learn.microsoft.com/ja-jp/azure/aks/learn/quick-kubernetes-deploy-cli) * [PowerShell](https://learn.microsoft.com/ja-jp/azure/aks/learn/quick-kubernetes-deploy-powershell) @@ -21,38 +22,38 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; ScalarDL Ledger と ScalarDL Auditor を展開する場合は、次のことを行う必要があります。 -* [サポートされている Kubernetes バージョン](https://scalardb.scalar-labs.com/docs/latest/requirements/#kubernetes) を使用して 2 つの AKS クラスターを作成します。 - * ScalarDL Ledger 用の 1 つの AKS クラスター - * ScalarDL Auditor 用の 1 つの AKS クラスター +* [サポートされている Kubernetes バージョン](https://scalardb.scalar-labs.com/docs/latest/requirements/#kubernetes)を使用して2つの AKS クラスターを作成します。 + * ScalarDL Ledger 用の1つの AKS クラスター + * ScalarDL Auditor 用の1つの AKS クラスター * Kubernetes のバージョンとプロジェクトの要件に基づいて AKS クラスターを構成します。 * 仮想ネットワーク(VNet) は以下のように設定します。 - * [Virtual network peering](https://learn.microsoft.com/en-us/azure/virtual-network/virtual-network-manage-peering) を使用して、**AKS の VNet (Ledger 用)** と **AKS の VNet (Auditor 用)** を接続します。 これを行うには、VNet の作成時に **AKS の VNet (Ledger 用)** と **AKS の VNet (Auditor 用)** に異なる IP 範囲を指定する必要があります。 + * [Virtual network peering](https://learn.microsoft.com/en-us/azure/virtual-network/virtual-network-manage-peering) を使用して、**AKS の VNet (Ledger 用)** と **AKS の VNet (Auditor 用)** を接続します。これを行うには、VNet の作成時に **AKS の VNet (Ledger 用)** と **AKS の VNet (Auditor 用)** に異なる IP 範囲を指定する必要があります。 * ScalarDL (Auditor モード) が適切に動作するように **Ledger と Auditor 間の接続**を許可します。 - * これらのネットワーク要件の詳細については、[ScalarDL Auditor Mode のネットワーク ピアリングの構成](NetworkPeeringForScalarDLAuditor.mdx) を参照してください。 + * これらのネットワーク要件の詳細については、[ScalarDL Auditor Mode のネットワークピアリングの構成](NetworkPeeringForScalarDLAuditor.mdx)を参照してください。 :::warning -ScalarDL でのビザンチン障害検出が適切に機能するには、ScalarDL Ledger および ScalarDL Auditor のデプロイと同じ AKS クラスターにアプリケーション ポッドをデプロイしないでください。 +ScalarDL でのビザンチン障害検出が適切に機能するには、ScalarDL Ledger および ScalarDL Auditor のデプロイと同じ AKS クラスターにアプリケーションポッドをデプロイしないでください。 ::: ## 推奨事項 (オプション) -以下は、ScalarDL Ledger および ScalarDL Auditor を展開するための推奨事項の一部です。 これらの推奨事項は必須ではないため、ニーズに基づいてこれらの推奨事項を適用するかどうかを選択できます。 +以下は、ScalarDL Ledger および ScalarDL Auditor を展開するための推奨事項の一部です。これらの推奨事項は必須ではないため、ニーズに基づいてこれらの推奨事項を適用するかどうかを選択できます。 -### AKS クラスターごとに少なくとも 3 つのワーカーノードと 3 つのポッドを作成します。 +### AKS クラスターごとに少なくとも3つのワーカーノードと3つのポッドを作成します。 -AKS クラスターの高可用性を確保するには、少なくとも 3 つのワーカーノードを使用し、ワーカーノード全体に少なくとも 3 つのポッドをデプロイする必要があります。 ワーカーノードに3つのPodを分散させるための `podAntiAffinity` の [ScalarDL Ledgerサンプル設定](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-custom-values.yaml) と [ScalarDL Auditorサンプル設定](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-audit-custom-values.yaml) をご覧ください。 +AKS クラスターの高可用性を確保するには、少なくとも3つのワーカーノードを使用し、ワーカーノード全体に少なくとも3つのポッドをデプロイする必要があります。ワーカーノードに3つのPodを分散させるための `podAntiAffinity` の [ScalarDL Ledgerサンプル設定](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-custom-values.yaml) と [ScalarDL Auditorサンプル設定](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-audit-custom-values.yaml)をご覧ください。 :::note -ワーカーノードを異なる [アベイラビリティ ゾーン](https://learn.microsoft.com/en-us/azure/availability-zones/az-overview) (AZ) に配置すると、AZ の障害に耐えることができます。 +ワーカーノードを異なる[アベイラビリティゾーン](https://learn.microsoft.com/en-us/azure/availability-zones/az-overview) (AZ) に配置すると、AZ の障害に耐えることができます。 ::: -### ScalarDL Ledger および ScalarDL Auditor ノード プールのワーカーノードには 4vCPU / 8GB メモリ ノードを使用します。 +### ScalarDL Ledger および ScalarDL Auditor ノードプールのワーカーノードには 4vCPU / 8GB メモリノードを使用します。 -商用ライセンスの観点から、ScalarDL Ledger または ScalarDL Auditor を実行する各ポッドのリソースは 2vCPU / 4GB メモリに制限されます。 ScalarDL Ledger および ScalarDL Auditor ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 +商用ライセンスの観点から、ScalarDL Ledger または ScalarDL Auditor を実行する各ポッドのリソースは 2vCPU / 4GB メモリに制限されます。ScalarDL Ledger および ScalarDL Auditor ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 * ScalarDL Ledger の AKS クラスター * ScalarDL Ledger ポッド (2vCPU / 4GB) @@ -65,34 +66,34 @@ AKS クラスターの高可用性を確保するには、少なくとも 3 つ * 監視コンポーネント (`kube-prometheus-stack` などの監視コンポーネントをデプロイする場合) * Kubernetes コンポーネント -これを念頭に置き、[少なくとも 3 つのワーカーノードと 3 つのポッドを作成する](#create-at-least-three-worker-nodes-and-three-pods-per-aks-cluster) で説明されているように、少なくとも 4vCPU / 8 GB のメモリ リソースを持つワーカーノードを使用し、可用性のために少なくとも 3 つのワーカーノードを使用する必要があります。 また、ビザンチン障害検出が適切に機能するには、ScalarDL Ledger および ScalarDL Auditor のデプロイと同じ AKS クラスターにアプリケーション ポッドをデプロイできないことに注意してください。 +これを念頭に置き、[少なくとも3つのワーカーノードと3つのポッドを作成する](#create-at-least-three-worker-nodes-and-three-pods-per-aks-cluster)で説明されているように、少なくとも 4vCPU / 8 GB のメモリリソースを持つワーカーノードを使用し、可用性のために少なくとも3つのワーカーノードを使用する必要があります。また、ビザンチン障害検出が適切に機能するには、ScalarDL Ledger および ScalarDL Auditor のデプロイと同じ AKS クラスターにアプリケーションポッドをデプロイできないことに注意してください。 -ただし、ノードあたり少なくとも 4vCPU / 8GB のメモリ リソースを備えた 3 つのノードが運用環境の最小環境となります。 また、システムのワークロードに応じて、AKS クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDL Ledger ポッド、ScalarDL Auditor ポッドなど) も考慮する必要があります。 また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 +ただし、ノードあたり少なくとも 4vCPU / 8GB のメモリリソースを備えた3つのノードが運用環境の最小環境となります。また、システムのワークロードに応じて、AKS クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDL Ledger ポッド、ScalarDL Auditor ポッドなど) も考慮する必要があります。また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 -### ScalarDL Ledger および ScalarDL Auditor ポッドのノード プールを作成する +### ScalarDL Ledger および ScalarDL Auditor ポッドのノードプールを作成する -AKS は、既定でシステム ポッド (AKS を実行し続けるために使用される) に優先される **agentpool** という名前のシステム ノード プールを 1 つ作成します。 ScalarDL Ledger および ScalarDL Auditor ポッド用に **user** モードで追加のノード プールを作成し、それらの追加のノード プールに ScalarDL Ledger および ScalarDL Auditor ポッドをデプロイすることをお勧めします。 +AKS は、既定でシステムポッド (AKS を実行し続けるために使用される) に優先される **agentpool** という名前のシステムノードプールを1つ作成します。ScalarDL Ledger および ScalarDL Auditor ポッド用に **user** モードで追加のノードプールを作成し、それらの追加のノードプールに ScalarDL Ledger および ScalarDL Auditor ポッドをデプロイすることをお勧めします。 -### AKS でクラスター オートスケーラーを構成する +### AKS でクラスターオートスケーラーを構成する -[Horizontal Pod Autoscaler)](https://learn.microsoft.com/en-us/azure/aks/concepts-scale#horizontal-pod-autoscaler) を使用して ScalarDL Ledger および ScalarDL Auditor ポッドを自動的にスケーリングする場合は、AKS でもクラスター オートスケーラーを構成する必要があります。 詳細については、Microsoft の公式ドキュメント [Cluster autoscaler](https://learn.microsoft.com/en-us/azure/aks/concepts-scale#cluster-autoscaler) を参照してください。 +[Horizontal Pod Autoscaler)](https://learn.microsoft.com/en-us/azure/aks/concepts-scale#horizontal-pod-autoscaler) を使用して ScalarDL Ledger および ScalarDL Auditor ポッドを自動的にスケーリングする場合は、AKS でもクラスターオートスケーラーを構成する必要があります。詳細については、Microsoft の公式ドキュメント [Cluster autoscaler](https://learn.microsoft.com/en-us/azure/aks/concepts-scale#cluster-autoscaler) を参照してください。 -さらに、クラスター オートスケーラーを構成する場合は、AKS がスケーリング後にネットワークの問題なく動作できるように、十分な数の IP が存在することを確認するために AKS 用の VNet にサブネットを作成する必要があります。 必要な IP の数は、ネットワーク プラグインによって異なります。 必要な IP 数の詳細については、以下を参照してください。 +さらに、クラスターオートスケーラーを構成する場合は、AKS がスケーリング後にネットワークの問題なく動作できるように、十分な数の IP が存在することを確認するために AKS 用の VNet にサブネットを作成する必要があります。必要な IP の数は、ネットワークプラグインによって異なります。必要な IP 数の詳細については、以下を参照してください。 * [Use kubenet networking with your own IP address ranges in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/configure-kubenet) * [Configure Azure CNI networking in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/configure-azure-cni) -### プライベート ネットワーク上に AKS クラスターを作成する +### プライベートネットワーク上に AKS クラスターを作成する -ScalarDL Ledger と ScalarDL Auditor はインターネット アクセス経由でユーザーに直接サービスを提供しないため、プライベート ネットワーク (VNet のプライベート サブネット) 上に AKS クラスターを作成する必要があります。 アプリケーションからプライベート ネットワーク経由で ScalarDL Ledger および ScalarDL Auditor にアクセスすることをお勧めします。 +ScalarDL Ledger と ScalarDL Auditor はインターネットアクセス経由でユーザーに直接サービスを提供しないため、プライベートネットワーク (VNet のプライベートサブネット) 上に AKS クラスターを作成する必要があります。アプリケーションからプライベートネットワーク経由で ScalarDL Ledger および ScalarDL Auditor にアクセスすることをお勧めします。 ### 必要に応じて、Azure CNI を使用して AKS クラスターを作成します。 -AKS の既定のネットワーク プラグインは [kubenet](https://learn.microsoft.com/en-us/azure/aks/configure-kubenet) です。 要件が kubenet と一致しない場合は、[Azure Container Networking Interface (CNI)](https://learn.microsoft.com/en-us/azure/aks/configure-azure-cni) を使用する必要があります。 +AKS の既定のネットワークプラグインは [kubenet](https://learn.microsoft.com/en-us/azure/aks/configure-kubenet) です。要件が kubenet と一致しない場合は、[Azure Container Networking Interface (CNI)](https://learn.microsoft.com/en-us/azure/aks/configure-azure-cni) を使用する必要があります。 -たとえば、複数の ScalarDL Ledger 環境と ScalarDL Auditor 環境を 2 つの AKS クラスターではなく 1 つの AKS クラスターのみにデプロイし (マルチテナントの ScalarDL をデプロイするなど)、[Kubernetes NetworkPolicies](https://kubernetes.io/docs/concepts/services-networking/network-policies/) を使用して各テナント間の接続を制御する場合、kubenet は Calico ネットワーク ポリシーのみ。[Azure サポート チームはサポートしていません](https://learn.microsoft.com/en-us/azure/aks/use-network-policies#differences-between-azure-network-policy-manager-and-calico-network-policy-and-their-capabilities)。 Calico ネットワーク ポリシーは、Calico コミュニティまたは追加の有料サポートを通じてのみサポートされることに注意してください。 +たとえば、複数の ScalarDL Ledger 環境と ScalarDL Auditor 環境を2つの AKS クラスターではなく1つの AKS クラスターのみにデプロイし (マルチテナントの ScalarDL をデプロイするなど)、[Kubernetes NetworkPolicies](https://kubernetes.io/docs/concepts/services-networking/network-policies/) を使用して各テナント間の接続を制御する場合、kubenet は Calico ネットワークポリシーのみ。[Azure サポートチームはサポートしていません](https://learn.microsoft.com/en-us/azure/aks/use-network-policies#differences-between-azure-network-policy-manager-and-calico-network-policy-and-their-capabilities)。Calico ネットワークポリシーは、Calico コミュニティまたは追加の有料サポートを通じてのみサポートされることに注意してください。 -ただし、Azure サポート チームとエンジニアリング チームは Azure CNI をサポートします。 したがって、Kubernetes NetworkPolicies を使用して Azure サポート チームからサポートを受けたい場合は、Azure CNI を使用する必要があります。 kubenet と Azure CNI の違いの詳細については、次の Microsoft 公式ドキュメントを参照してください。 +ただし、Azure サポートチームとエンジニアリングチームは Azure CNI をサポートします。したがって、Kubernetes NetworkPolicies を使用して Azure サポートチームからサポートを受けたい場合は、Azure CNI を使用する必要があります。kubenet と Azure CNI の違いの詳細については、次の Microsoft 公式ドキュメントを参照してください。 * [Network concepts for applications in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/concepts-network) * [Use kubenet networking with your own IP address ranges in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/configure-kubenet) @@ -100,19 +101,19 @@ AKS の既定のネットワーク プラグインは [kubenet](https://learn.mi ### 要件に基づいていくつかのセキュリティ機能を使用して接続を制限する -ScalarDL および ScalarDL Auditor では、未使用の接続を制限する必要があります。 未使用の接続を制限するには、[network security groups](https://learn.microsoft.com/en-us/azure/virtual-network/network-security-groups-overview) などの Azure のセキュリティ機能を使用できます。 +ScalarDL および ScalarDL Auditor では、未使用の接続を制限する必要があります。未使用の接続を制限するには、[network security groups](https://learn.microsoft.com/en-us/azure/virtual-network/network-security-groups-overview) などの Azure のセキュリティ機能を使用できます。 ScalarDL Ledger および ScalarDL Auditor がデフォルトで使用する接続 (ポート) は次のとおりです。 * ScalarDL Ledger * 50051/TCP (クライアントおよび ScalarDL Auditor からのリクエストを受け入れる) * 50052/TCP (クライアントおよび ScalarDL Auditor からの特権リクエストを受け入れます) - * 50053/TCP (scalar-admin クライアント ツールからの一時停止/一時停止解除リクエストを受け入れます) + * 50053/TCP (scalar-admin クライアントツールからの一時停止/一時停止解除リクエストを受け入れます) * 8080/TCP (監視リクエストを受け付ける) * ScalarDL Auditor * 40051/TCP (クライアントからのリクエストを受け付ける) * 40052/TCP (クライアントからの特権リクエストを受け入れます) - * 40053/TCP (scalar-admin クライアント ツールからの一時停止および一時停止解除リクエストを受け入れます) + * 40053/TCP (scalar-admin クライアントツールからの一時停止および一時停止解除リクエストを受け入れます) * 8080/TCP (監視リクエストを受け付ける) * Scalar Envoy (ScalarDL Ledger および ScalarDL Auditor とともに使用) * 50051/TCP (ScalarDL Ledger の負荷分散) @@ -123,7 +124,7 @@ ScalarDL Ledger および ScalarDL Auditor がデフォルトで使用する接 :::note -- 設定ファイル (それぞれ `ledger.properties` と `auditor.properties`) で ScalarDL Ledger と ScalarDL Auditor のデフォルトのリスニング ポートを変更する場合は、設定したポートを使用して接続を許可する必要があります。 -- AKS 自体が使用する接続も許可する必要があります。 AKS トラフィック要件の詳細については、[Control egress traffic using Azure Firewall in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/limit-egress-traffic) を参照してください。 +- 設定ファイル (それぞれ `ledger.properties` と `auditor.properties`) で ScalarDL Ledger と ScalarDL Auditor のデフォルトのリスニングポートを変更する場合は、設定したポートを使用して接続を許可する必要があります。 +- AKS 自体が使用する接続も許可する必要があります。AKS トラフィック要件の詳細については、[Control egress traffic using Azure Firewall in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/limit-egress-traffic) を参照してください。 ::: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateAKSClusterForScalarProducts.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateAKSClusterForScalarProducts.mdx index 88a10073..9e8927fc 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateAKSClusterForScalarProducts.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateAKSClusterForScalarProducts.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Scalar 製品用の AKS クラスターを作成するためのガイドライン diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateBastionServer.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateBastionServer.mdx index bd4d91c7..059eb28b 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateBastionServer.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateBastionServer.mdx @@ -2,34 +2,35 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- -# 要塞サーバーを作成する +# 踏み台サーバーを作成する import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、要塞サーバーを作成し、Scalar 製品を展開するためのいくつかのツールをインストールする方法について説明します。 +このドキュメントでは、踏み台サーバーを作成し、Scalar 製品を展開するためのいくつかのツールをインストールする方法について説明します。 -## Kubernetes クラスターと同じプライベート ネットワーク上にサーバーを作成します +## Kubernetes クラスターと同じプライベートネットワーク上にサーバーを作成します -Scalar 製品用の Kubernetes クラスターはプライベート ネットワーク上に作成することをお勧めします。 プライベート ネットワーク上に Kubernetes クラスターを作成する場合は、Kubernetes クラスターにアクセスするために、同じプライベート ネットワーク上に要塞サーバーを作成する必要があります。 +Scalar 製品用の Kubernetes クラスターはプライベートネットワーク上に作成することをお勧めします。プライベートネットワーク上に Kubernetes クラスターを作成する場合は、Kubernetes クラスターにアクセスするために、同じプライベートネットワーク上に踏み台サーバーを作成する必要があります。 ## ツールをインストールする -公式ドキュメントに従って、次のツールを要塞サーバーにインストールしてください。 +公式ドキュメントに従って、次のツールを踏み台サーバーにインストールしてください。 * [kubectl](https://kubernetes.io/docs/tasks/tools/#kubectl) * [helm](https://helm.sh/docs/intro/install/) ## kubeconfig の構成 -kubectl コマンドをインストールした後、Kubernetes クラスターにアクセスできるように **kubeconfig** を構成する必要があります。 各マネージド Kubernetes での kubeconfig の設定方法の詳細については、次の公式ドキュメントを参照してください。 +kubectl コマンドをインストールした後、Kubernetes クラスターにアクセスできるように **kubeconfig** を構成する必要があります。各マネージド Kubernetes での kubeconfig の設定方法の詳細については、次の公式ドキュメントを参照してください。 -Amazon EKS (Amazon Elastic Kubernetes Service) を使用する場合は、公式ドキュメント [Installing or updating the latest version of the AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/getting-started-install.html) に従って **AWS CLI** をインストールする必要があります。 その後、[Creating or updating a kubeconfig file for an Amazon EKS cluster](https://docs.aws.amazon.com/eks/latest/userguide/create-kubeconfig.html) で kubeconfig を設定する方法を確認できます。 +Amazon EKS (Amazon Elastic Kubernetes Service) を使用する場合は、公式ドキュメント [Installing or updating the latest version of the AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/getting-started-install.html) に従って **AWS CLI** をインストールする必要があります。その後、[Creating or updating a kubeconfig file for an Amazon EKS cluster](https://docs.aws.amazon.com/eks/latest/userguide/create-kubeconfig.html) で kubeconfig を設定する方法を確認できます。 -AKS (Azure Kubernetes Service) を使用する場合は、公式ドキュメント [How to install the Azure CLI](https://learn.microsoft.com/en-us/cli/azure/install-azure-cli) に従って **Azure CLI** をインストールする必要があります。 その後、[az aks get-credentials](https://learn.microsoft.com/en-us/cli/azure/aks?view=azure-cli-latest#az-aks-get-credentials) で kubeconfig を構成する方法を確認できます。 +AKS (Azure Kubernetes Service) を使用する場合は、公式ドキュメント [How to install the Azure CLI](https://learn.microsoft.com/en-us/cli/azure/install-azure-cli) に従って **Azure CLI** をインストールする必要があります。その後、[az aks get-credentials](https://learn.microsoft.com/en-us/cli/azure/aks?view=azure-cli-latest#az-aks-get-credentials) で kubeconfig を構成する方法を確認できます。 ## インストールを確認する @@ -44,7 +45,7 @@ AKS (Azure Kubernetes Service) を使用する場合は、公式ドキュメン helm version ``` -次のように、kubeconfig が適切に構成されているかどうかを確認することもできます。 URL 応答が表示された場合、kubectl はクラスターにアクセスするように正しく構成されています。 +次のように、kubeconfig が適切に構成されているかどうかを確認することもできます。URL 応答が表示された場合、kubectl はクラスターにアクセスするように正しく構成されています。 ```console kubectl cluster-info ``` diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateEKSClusterForScalarDB.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateEKSClusterForScalarDB.mdx index 64927fe0..57c58162 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateEKSClusterForScalarDB.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateEKSClusterForScalarDB.mdx @@ -3,6 +3,7 @@ tags: - Enterprise Standard - Enterprise Premium - Deprecated +displayed_sidebar: docsJapanese --- # (非推奨) ScalarDB Server 用の EKS クラスターを作成するためのガイドライン @@ -13,30 +14,30 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; :::warning -ScalarDB Server は非推奨になりました。 代わりに [ScalarDB Cluster](ManualDeploymentGuideScalarDBClusterOnEKS.mdx) を使用してください。 +ScalarDB Server は非推奨になりました。代わりに [ScalarDB Cluster](ManualDeploymentGuideScalarDBClusterOnEKS.mdx) を使用してください。 ::: -このドキュメントでは、ScalarDB Server デプロイメント用の Amazon Elastic Kubernetes Service (EKS) クラスターを作成するための要件と推奨事項について説明します。 ScalarDB Server を EKS クラスターにデプロイする方法の詳細については、[ScalarDB Server を Amazon EKS にデプロイする](ManualDeploymentGuideScalarDBServerOnEKS.mdx)を参照してください。 +このドキュメントでは、ScalarDB Server デプロイメント用の Amazon Elastic Kubernetes Service (EKS) クラスターを作成するための要件と推奨事項について説明します。ScalarDB Server を EKS クラスターにデプロイする方法の詳細については、[ScalarDB Server を Amazon EKS にデプロイする](ManualDeploymentGuideScalarDBServerOnEKS.mdx)を参照してください。 ## あなたが始める前に -EKS クラスターは、次の要件、推奨事項、およびプロジェクトの要件に基づいて作成する必要があります。 EKS クラスターの作成方法の詳細については、Amazon の公式ドキュメント [Creating an Amazon EKS cluster](https://docs.aws.amazon.com/eks/latest/userguide/create-cluster.html) を参照してください。 +EKS クラスターは、次の要件、推奨事項、およびプロジェクトの要件に基づいて作成する必要があります。EKS クラスターの作成方法の詳細については、Amazon の公式ドキュメント [Creating an Amazon EKS cluster](https://docs.aws.amazon.com/eks/latest/userguide/create-cluster.html) を参照してください。 ## 要件 ScalarDB Server を展開するときは、次のことを行う必要があります。 -* [サポートされている Kubernetes バージョン](https://scalardb.scalar-labs.com/docs/latest/requirements/#kubernetes) を使用して EKS クラスターを作成します。 +* [サポートされている Kubernetes バージョン](https://scalardb.scalar-labs.com/docs/latest/requirements/#kubernetes)を使用して EKS クラスターを作成します。 * Kubernetes のバージョンとプロジェクトの要件に基づいて EKS クラスターを構成します。 ## 推奨事項 (オプション) -以下に、ScalarDB Server を展開するための推奨事項をいくつか示します。 これらの推奨事項は必須ではないため、ニーズに基づいてこれらの推奨事項を適用するかどうかを選択できます。 +以下に、ScalarDB Server を展開するための推奨事項をいくつか示します。これらの推奨事項は必須ではないため、ニーズに基づいてこれらの推奨事項を適用するかどうかを選択できます。 -### 少なくとも 3 つのワーカーノードと 3 つのポッドを作成します +### 少なくとも3つのワーカーノードと3つのポッドを作成します -EKS クラスターの高可用性を確保するには、少なくとも 3 つのワーカーノードを使用し、ワーカーノード全体に少なくとも 3 つのポッドをデプロイする必要があります。 3 つのポッドをワーカーノードに分散させるための `podAntiAffinity` の [サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardb-custom-values.yaml) を参照できます。 +EKS クラスターの高可用性を確保するには、少なくとも3つのワーカーノードを使用し、ワーカーノード全体に少なくとも3つのポッドをデプロイする必要があります。3つのポッドをワーカーノードに分散させるための `podAntiAffinity` の[サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardb-custom-values.yaml)を参照できます。 :::note @@ -44,33 +45,33 @@ EKS クラスターの高可用性を確保するには、少なくとも 3 つ ::: -### ScalarDB Server ノード グループのワーカーノードには 4vCPU / 8GB メモリ ノードを使用します。 +### ScalarDB Server ノードグループのワーカーノードには 4vCPU / 8GB メモリノードを使用します。 -商用ライセンスの観点から、ScalarDB Server を実行する 1 つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。 ScalarDB Server ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 +商用ライセンスの観点から、ScalarDB Server を実行する1つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。ScalarDB Server ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 * ScalarDB Server ポッド (2vCPU / 4GB) * Envoy プロキシ -* アプリケーション ポッド (同じワーカーノード上でアプリケーションのポッドを実行することを選択した場合) +* アプリケーションポッド (同じワーカーノード上でアプリケーションのポッドを実行することを選択した場合) * 監視コンポーネント (`kube-prometheus-stack` などの監視コンポーネントをデプロイする場合) * Kubernetes コンポーネント -これを念頭に置き、[少なくとも 3 つのワーカーノードと 3 つのポッドを作成する](#create-at-least-three-worker-nodes-and-three-pods) で説明されているように、少なくとも 4vCPU / 8 GB のメモリ リソースを持つワーカーノードを使用し、可用性のために少なくとも 3 つのワーカーノードを使用する必要があります。 +これを念頭に置き、[少なくとも3つのワーカーノードと3つのポッドを作成する](#create-at-least-three-worker-nodes-and-three-pods)で説明されているように、少なくとも 4vCPU / 8 GB のメモリリソースを持つワーカーノードを使用し、可用性のために少なくとも3つのワーカーノードを使用する必要があります。 -ただし、運用環境では、ノードあたり少なくとも 4vCPU / 8GB のメモリ リソースを備えた 3 つのノードが最小条件となります。 システムのワークロードに応じて、EKS クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDB Server ポッド、アプリケーションのポッドなど) も考慮する必要があります。 また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 +ただし、運用環境では、ノードあたり少なくとも 4vCPU / 8GB のメモリリソースを備えた3つのノードが最小条件となります。システムのワークロードに応じて、EKS クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDB Server ポッド、アプリケーションのポッドなど) も考慮する必要があります。また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 -### EKS でクラスター オートスケーラーを構成する +### EKS でクラスターオートスケーラーを構成する -[Horizontal Pod Autoscaler](https://docs.aws.amazon.com/eks/latest/userguide/horizontal-pod-autoscaler.html) を使用して ScalarDB Server ポッドを自動的にスケーリングする場合は、EKS でクラスター オートスケーラーも構成する必要があります。 詳細については、Amazon の公式ドキュメント [Autoscaling](https://docs.aws.amazon.com/eks/latest/userguide/autoscaling.html#cluster-autoscaler) を参照してください。 +[Horizontal Pod Autoscaler](https://docs.aws.amazon.com/eks/latest/userguide/horizontal-pod-autoscaler.html) を使用して ScalarDB Server ポッドを自動的にスケーリングする場合は、EKS でクラスターオートスケーラーも構成する必要があります。詳細については、Amazon の公式ドキュメント [Autoscaling](https://docs.aws.amazon.com/eks/latest/userguide/autoscaling.html#cluster-autoscaler) を参照してください。 -さらに、クラスター オートスケーラーを構成する場合は、プレフィックス (`/24` など) を付けて EKS 用の Amazon Virtual Private Cloud (VPC) にサブネットを作成し、十分な数の IP が存在することを確認して、EKS がクラスター オートスケーラーなしで動作できるようにする必要があります。 スケーリング後のネットワークの問題。 +さらに、クラスターオートスケーラーを構成する場合は、プレフィックス (`/24` など) を付けて EKS 用の Amazon Virtual Private Cloud (VPC) にサブネットを作成し、十分な数の IP が存在することを確認して、EKS がクラスターオートスケーラーなしで動作できるようにする必要があります。スケーリング後のネットワークの問題。 -### プライベート ネットワーク上に EKS クラスターを作成する +### プライベートネットワーク上に EKS クラスターを作成する -ScalarDB Server はインターネット アクセス経由でユーザーにサービスを直接提供しないため、プライベート ネットワーク (VPC 内のプライベート サブネット) 上に EKS クラスターを作成する必要があります。 アプリケーションからプライベート ネットワーク経由で ScalarDB Server にアクセスすることをお勧めします。 +ScalarDB Server はインターネットアクセス経由でユーザーにサービスを直接提供しないため、プライベートネットワーク (VPC 内のプライベートサブネット) 上に EKS クラスターを作成する必要があります。アプリケーションからプライベートネットワーク経由で ScalarDB Server にアクセスすることをお勧めします。 ### 要件に基づいていくつかのセキュリティ機能を使用して接続を制限する -ScalarDB Server では未使用の接続を制限する必要があります。 未使用の接続を制限するには、[security groups](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_SecurityGroups.html) や [network access control lists](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-network-acls.html) など、AWS のいくつかのセキュリティ機能を使用できます。 +ScalarDB Server では未使用の接続を制限する必要があります。未使用の接続を制限するには、[security groups](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_SecurityGroups.html) や [network access control lists](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-network-acls.html) など、AWS のいくつかのセキュリティ機能を使用できます。 ScalarDB Server がデフォルトで使用する接続 (ポート) は次のとおりです。 @@ -83,7 +84,7 @@ ScalarDB Server がデフォルトで使用する接続 (ポート) は次のと :::note -- 構成ファイル (`database.properties`) で ScalarDB Server のデフォルトのリスニング ポートを変更する場合は、構成したポートを使用して接続を許可する必要があります。 -- EKS 自体が使用する接続も許可する必要があります。 Amazon EKS セキュリティグループの要件の詳細については、[Amazon EKS security group requirements and considerations](https://docs.aws.amazon.com/eks/latest/userguide/sec-group-reqs.html) を参照してください。 +- 構成ファイル (`database.properties`) で ScalarDB Server のデフォルトのリスニングポートを変更する場合は、構成したポートを使用して接続を許可する必要があります。 +- EKS 自体が使用する接続も許可する必要があります。Amazon EKS セキュリティグループの要件の詳細については、[Amazon EKS security group requirements and considerations](https://docs.aws.amazon.com/eks/latest/userguide/sec-group-reqs.html) を参照してください。 ::: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateEKSClusterForScalarDBCluster.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateEKSClusterForScalarDBCluster.mdx index 66f32e34..4a46d3c6 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateEKSClusterForScalarDBCluster.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateEKSClusterForScalarDBCluster.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # ScalarDB Cluster 用の EKS クラスターを作成するためのガイドライン @@ -10,26 +11,26 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、ScalarDB Cluster 展開用の Amazon Elastic Kubernetes Service (EKS) クラスターを作成するための要件と推奨事項について説明します。 ScalarDB Cluster を EKS クラスターにデプロイする方法の詳細については、[Amazon EKS に ScalarDB Cluster をデプロイする](ManualDeploymentGuideScalarDBClusterOnEKS.mdx) を参照してください。 +このドキュメントでは、ScalarDB Cluster 展開用の Amazon Elastic Kubernetes Service (EKS) クラスターを作成するための要件と推奨事項について説明します。ScalarDB Cluster を EKS クラスターにデプロイする方法の詳細については、[Amazon EKS に ScalarDB Cluster をデプロイする](ManualDeploymentGuideScalarDBClusterOnEKS.mdx) を参照してください。 ## あなたが始める前に -EKS クラスターは、次の要件、推奨事項、およびプロジェクトの要件に基づいて作成する必要があります。 EKS クラスターの作成方法の詳細については、Amazon の公式ドキュメント [Creating an Amazon EKS cluster](https://docs.aws.amazon.com/eks/latest/userguide/create-cluster.html) を参照してください。 +EKS クラスターは、次の要件、推奨事項、およびプロジェクトの要件に基づいて作成する必要があります。EKS クラスターの作成方法の詳細については、Amazon の公式ドキュメント [Creating an Amazon EKS cluster](https://docs.aws.amazon.com/eks/latest/userguide/create-cluster.html) を参照してください。 ## 要件 ScalarDB Cluster をデプロイする場合は、次のことを行う必要があります。 -* [サポートされている Kubernetes バージョン](https://scalardb.scalar-labs.com/docs/latest/requirements/#kubernetes) を使用して EKS クラスターを作成します。 +* [サポートされている Kubernetes バージョン](https://scalardb.scalar-labs.com/docs/latest/requirements/#kubernetes)を使用して EKS クラスターを作成します。 * Kubernetes のバージョンとプロジェクトの要件に基づいて EKS クラスターを構成します。 ## 推奨事項 (オプション) -以下は、ScalarDB Cluster をデプロイするための推奨事項の一部です。 これらの推奨事項は必須ではないため、ニーズに基づいてこれらの推奨事項を適用するかどうかを選択できます。 +以下は、ScalarDB Cluster をデプロイするための推奨事項の一部です。これらの推奨事項は必須ではないため、ニーズに基づいてこれらの推奨事項を適用するかどうかを選択できます。 -### 少なくとも 3 つのワーカーノードと 3 つのポッドを作成します +### 少なくとも3つのワーカーノードと3つのポッドを作成します -EKS クラスターの高可用性を確保するには、少なくとも 3 つのワーカーノードを使用し、ワーカーノード全体に少なくとも 3 つのポッドをデプロイする必要があります。 3 つのポッドをワーカーノードに分散させるための `podAntiAffinity` の [サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardb-cluster-custom-values-indirect-mode.yaml) を参照できます。 +EKS クラスターの高可用性を確保するには、少なくとも3つのワーカーノードを使用し、ワーカーノード全体に少なくとも3つのポッドをデプロイする必要があります。3つのポッドをワーカーノードに分散させるための `podAntiAffinity` の[サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardb-cluster-custom-values-indirect-mode.yaml)を参照できます。 :::note @@ -37,13 +38,13 @@ EKS クラスターの高可用性を確保するには、少なくとも 3 つ ::: -### ScalarDB Cluster ノード グループのワーカーノードには 4vCPU / 8GB メモリ ノードを使用します。 +### ScalarDB Cluster ノードグループのワーカーノードには 4vCPU / 8GB メモリノードを使用します。 -商用ライセンスの観点から、ScalarDB Cluster を実行する 1 つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。 ScalarDB Cluster ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 +商用ライセンスの観点から、ScalarDB Cluster を実行する1つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。ScalarDB Cluster ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 * ScalarDB Cluster ポッド (2vCPU / 4GB) -* Envoy プロキシ (`indirect` クライアント モードを使用する場合、または Java 以外のプログラミング言語を使用する場合) -* アプリケーション ポッド (同じワーカーノード上でアプリケーションのポッドを実行することを選択した場合) +* Envoy プロキシ (`indirect` クライアントモードを使用する場合、または Java 以外のプログラミング言語を使用する場合) +* アプリケーションポッド (同じワーカーノード上でアプリケーションのポッドを実行することを選択した場合) * 監視コンポーネント (`kube-prometheus-stack` などの監視コンポーネントをデプロイする場合) * Kubernetes コンポーネント @@ -53,23 +54,23 @@ EKS クラスターの高可用性を確保するには、少なくとも 3 つ ::: -これを念頭に置き、[少なくとも 3 つのワーカーノードと 3 つのポッドを作成する](#create-at-least-three-worker-nodes-and-three-pods) で説明されているように、少なくとも 4vCPU / 8 GB のメモリ リソースを持つワーカーノードを使用し、可用性のために少なくとも 3 つのワーカーノードを使用する必要があります。 +これを念頭に置き、[少なくとも3つのワーカーノードと3つのポッドを作成する](#create-at-least-three-worker-nodes-and-three-pods)で説明されているように、少なくとも 4vCPU / 8 GB のメモリリソースを持つワーカーノードを使用し、可用性のために少なくとも3つのワーカーノードを使用する必要があります。 -ただし、運用環境では、ノードあたり少なくとも 4vCPU / 8GB のメモリ リソースを備えた 3 つのノードが最小条件となります。 システムのワークロードに応じて、EKS クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDB Cluster ポッド、アプリケーションのポッドなど) も考慮する必要があります。 また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 +ただし、運用環境では、ノードあたり少なくとも 4vCPU / 8GB のメモリリソースを備えた3つのノードが最小条件となります。システムのワークロードに応じて、EKS クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDB Cluster ポッド、アプリケーションのポッドなど) も考慮する必要があります。また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 -### EKS でクラスター オートスケーラーを構成する +### EKS でクラスターオートスケーラーを構成する -[Horizontal Pod Autoscaler](https://docs.aws.amazon.com/eks/latest/userguide/horizontal-pod-autoscaler.html) を使用して ScalarDB Cluster ポッドを自動的にスケーリングする場合は、EKS でもクラスター オートスケーラーを構成する必要があります。 詳細については、Amazon の公式ドキュメント [Autoscaling](https://docs.aws.amazon.com/eks/latest/userguide/autoscaling.html#cluster-autoscaler) を参照してください。 +[Horizontal Pod Autoscaler](https://docs.aws.amazon.com/eks/latest/userguide/horizontal-pod-autoscaler.html) を使用して ScalarDB Cluster ポッドを自動的にスケーリングする場合は、EKS でもクラスターオートスケーラーを構成する必要があります。詳細については、Amazon の公式ドキュメント [Autoscaling](https://docs.aws.amazon.com/eks/latest/userguide/autoscaling.html#cluster-autoscaler) を参照してください。 -さらに、クラスター オートスケーラーを構成する場合は、プレフィックス (`/24` など) を付けて EKS 用の Amazon Virtual Private Cloud (VPC) にサブネットを作成し、十分な数の IP が存在することを確認して、EKS がクラスター オートスケーラーなしで動作できるようにする必要があります。 スケーリング後のネットワークの問題。 +さらに、クラスターオートスケーラーを構成する場合は、プレフィックス (`/24` など) を付けて EKS 用の Amazon Virtual Private Cloud (VPC) にサブネットを作成し、十分な数の IP が存在することを確認して、EKS がクラスターオートスケーラーなしで動作できるようにする必要があります。スケーリング後のネットワークの問題。 -### プライベート ネットワーク上に EKS クラスターを作成する +### プライベートネットワーク上に EKS クラスターを作成する -ScalarDB Cluster はインターネット アクセス経由でユーザーにサービスを直接提供しないため、EKS クラスターはプライベート ネットワーク (VPC 内のプライベート サブネット) 上に作成する必要があります。 アプリケーションからプライベート ネットワーク経由で ScalarDB Cluster にアクセスすることをお勧めします。 +ScalarDB Cluster はインターネットアクセス経由でユーザーにサービスを直接提供しないため、EKS クラスターはプライベートネットワーク (VPC 内のプライベートサブネット) 上に作成する必要があります。アプリケーションからプライベートネットワーク経由で ScalarDB Cluster にアクセスすることをお勧めします。 ### 要件に基づいていくつかのセキュリティ機能を使用して接続を制限する -ScalarDB Cluster で未使用の接続を制限する必要があります。 未使用の接続を制限するには、[security groups](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_SecurityGroups.html) や [network access control lists](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-network-acls.html) など、AWS のいくつかのセキュリティ機能を使用できます。 +ScalarDB Cluster で未使用の接続を制限する必要があります。未使用の接続を制限するには、[security groups](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_SecurityGroups.html) や [network access control lists](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-network-acls.html) など、AWS のいくつかのセキュリティ機能を使用できます。 ScalarDB Cluster がデフォルトで使用する接続 (ポート) は次のとおりです。 @@ -83,7 +84,7 @@ ScalarDB Cluster がデフォルトで使用する接続 (ポート) は次の :::note -- 構成ファイル (`scalardb-cluster-node.properties`) で ScalarDB Clusterのデフォルトのリスニング ポートを変更する場合は、構成したポートを使用して接続を許可する必要があります。 -- EKS 自体が使用する接続も許可する必要があります。 Amazon EKS セキュリティグループの要件の詳細については、[Amazon EKS security group requirements and considerations](https://docs.aws.amazon.com/eks/latest/userguide/sec-group-reqs.html) を参照してください。 +- 構成ファイル (`scalardb-cluster-node.properties`) で ScalarDB Clusterのデフォルトのリスニングポートを変更する場合は、構成したポートを使用して接続を許可する必要があります。 +- EKS 自体が使用する接続も許可する必要があります。Amazon EKS セキュリティグループの要件の詳細については、[Amazon EKS security group requirements and considerations](https://docs.aws.amazon.com/eks/latest/userguide/sec-group-reqs.html) を参照してください。 ::: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateEKSClusterForScalarDL.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateEKSClusterForScalarDL.mdx index c244507f..0f80f4b8 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateEKSClusterForScalarDL.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateEKSClusterForScalarDL.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsJapanese --- # ScalarDL Ledger の EKS クラスターを作成するためのガイドライン @@ -7,32 +8,32 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、ScalarDL Ledger デプロイ用の Amazon Elastic Kubernetes Service (EKS) クラスターを作成するための要件と推奨事項について説明します。 ScalarDL Ledger を EKS クラスターにデプロイする方法の詳細については、[ScalarDL Ledger を Amazon EKS にデプロイする](ManualDeploymentGuideScalarDLOnEKS.mdx)を参照してください。 +このドキュメントでは、ScalarDL Ledger デプロイ用の Amazon Elastic Kubernetes Service (EKS) クラスターを作成するための要件と推奨事項について説明します。ScalarDL Ledger を EKS クラスターにデプロイする方法の詳細については、[ScalarDL Ledger を Amazon EKS にデプロイする](ManualDeploymentGuideScalarDLOnEKS.mdx)を参照してください。 ## あなたが始める前に -EKS クラスターは、次の要件、推奨事項、およびプロジェクトの要件に基づいて作成する必要があります。 EKS クラスターの作成方法の詳細については、Amazon の公式ドキュメント [Creating an Amazon EKS cluster](https://docs.aws.amazon.com/eks/latest/userguide/create-cluster.html) を参照してください。 +EKS クラスターは、次の要件、推奨事項、およびプロジェクトの要件に基づいて作成する必要があります。EKS クラスターの作成方法の詳細については、Amazon の公式ドキュメント [Creating an Amazon EKS cluster](https://docs.aws.amazon.com/eks/latest/userguide/create-cluster.html) を参照してください。 ## 要件 ScalarDL Ledger を展開するときは、次のことを行う必要があります。 -* [サポートされている Kubernetes バージョン](https://scalardb.scalar-labs.com/docs/latest/requirements/#kubernetes) を使用して EKS クラスターを作成します。 +* [サポートされている Kubernetes バージョン](https://scalardb.scalar-labs.com/docs/latest/requirements/#kubernetes)を使用して EKS クラスターを作成します。 * Kubernetes のバージョンとプロジェクトの要件に基づいて EKS クラスターを構成します。 :::warning -ScalarDL でのビザンチン障害検出が適切に機能するには、ScalarDL Ledger デプロイメントと同じ EKS クラスターにアプリケーション ポッドをデプロイしないでください。 +ScalarDL でのビザンチン障害検出が適切に機能するには、ScalarDL Ledger デプロイメントと同じ EKS クラスターにアプリケーションポッドをデプロイしないでください。 ::: ## 推奨事項 (オプション) -以下は、ScalarDL Ledger を展開するための推奨事項の一部です。 これらの推奨事項は必須ではないため、ニーズに基づいてこれらの推奨事項を適用するかどうかを選択できます。 +以下は、ScalarDL Ledger を展開するための推奨事項の一部です。これらの推奨事項は必須ではないため、ニーズに基づいてこれらの推奨事項を適用するかどうかを選択できます。 -### 少なくとも 3 つのワーカーノードと 3 つのポッドを作成します +### 少なくとも3つのワーカーノードと3つのポッドを作成します -EKS クラスターの高可用性を確保するには、少なくとも 3 つのワーカーノードを使用し、ワーカーノード全体に少なくとも 3 つのポッドをデプロイする必要があります。 3 つのポッドをワーカーノードに分散させるための `podAntiAffinity` の [サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-custom-values.yaml) を参照できます。 +EKS クラスターの高可用性を確保するには、少なくとも3つのワーカーノードを使用し、ワーカーノード全体に少なくとも3つのポッドをデプロイする必要があります。3つのポッドをワーカーノードに分散させるための `podAntiAffinity` の[サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-custom-values.yaml)を参照できます。 :::note @@ -40,39 +41,39 @@ EKS クラスターの高可用性を確保するには、少なくとも 3 つ ::: -### ScalarDL Ledger ノード グループのワーカーノードには 4vCPU / 8GB メモリ ノードを使用します +### ScalarDL Ledger ノードグループのワーカーノードには 4vCPU / 8GB メモリノードを使用します -商用ライセンスの観点から、ScalarDL Ledger を実行する 1 つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。 ScalarDL Ledger ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 +商用ライセンスの観点から、ScalarDL Ledger を実行する1つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。ScalarDL Ledger ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 * ScalarDL Ledger ポッド (2vCPU / 4GB) * Envoy プロキシ * 監視コンポーネント (`kube-prometheus-stack` などの監視コンポーネントをデプロイする場合) * Kubernetes コンポーネント -これを念頭に置き、[少なくとも 3 つのワーカーノードと 3 つのポッドを作成する](#create-at-least-three-worker-nodes-and-three-pods) で説明されているように、少なくとも 4vCPU / 8 GB のメモリ リソースを持つワーカーノードを使用し、可用性のために少なくとも 3 つのワーカーノードを使用する必要があります。 +これを念頭に置き、[少なくとも3つのワーカーノードと3つのポッドを作成する](#create-at-least-three-worker-nodes-and-three-pods)で説明されているように、少なくとも 4vCPU / 8 GB のメモリリソースを持つワーカーノードを使用し、可用性のために少なくとも3つのワーカーノードを使用する必要があります。 -ただし、ノードあたり少なくとも 4vCPU / 8GB のメモリ リソースを備えた 3 つのノードが運用環境の最小環境となります。 システムのワークロードに応じて、EKS クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDL Ledger ポッドなど) も考慮する必要があります。 また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 +ただし、ノードあたり少なくとも 4vCPU / 8GB のメモリリソースを備えた3つのノードが運用環境の最小環境となります。システムのワークロードに応じて、EKS クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDL Ledger ポッドなど) も考慮する必要があります。また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 -### EKS でクラスター オートスケーラーを構成する +### EKS でクラスターオートスケーラーを構成する -[Horizontal Pod Autoscaler](https://docs.aws.amazon.com/eks/latest/userguide/horizontal-pod-autoscaler.html) を使用して ScalarDL Ledger ポッドを自動的にスケーリングする場合は、EKS でクラスター オートスケーラーも構成する必要があります。 詳細については、Amazon の公式ドキュメント [Autoscaling](https://docs.aws.amazon.com/eks/latest/userguide/autoscaling.html#cluster-autoscaler) を参照してください。 +[Horizontal Pod Autoscaler](https://docs.aws.amazon.com/eks/latest/userguide/horizontal-pod-autoscaler.html) を使用して ScalarDL Ledger ポッドを自動的にスケーリングする場合は、EKS でクラスターオートスケーラーも構成する必要があります。詳細については、Amazon の公式ドキュメント [Autoscaling](https://docs.aws.amazon.com/eks/latest/userguide/autoscaling.html#cluster-autoscaler) を参照してください。 -さらに、クラスター オートスケーラーを構成する場合は、プレフィックス (`/24`など) を付けて EKS 用の Amazon Virtual Private Cloud (VPC) にサブネットを作成し、十分な数の IP が存在することを確認して、EKS がクラスター オートスケーラーなしで動作できるようにする必要があります。 スケーリング後のネットワークの問題。 +さらに、クラスターオートスケーラーを構成する場合は、プレフィックス (`/24`など) を付けて EKS 用の Amazon Virtual Private Cloud (VPC) にサブネットを作成し、十分な数の IP が存在することを確認して、EKS がクラスターオートスケーラーなしで動作できるようにする必要があります。スケーリング後のネットワークの問題。 -### プライベート ネットワーク上に EKS クラスターを作成する +### プライベートネットワーク上に EKS クラスターを作成する -ScalarDL Ledger はインターネット アクセス経由でユーザーにサービスを直接提供しないため、プライベート ネットワーク (VPC 内のプライベート サブネット) 上に EKS クラスターを作成する必要があります。 アプリケーションからプライベート ネットワーク経由で ScalarDL Ledger にアクセスすることをお勧めします。 +ScalarDL Ledger はインターネットアクセス経由でユーザーにサービスを直接提供しないため、プライベートネットワーク (VPC 内のプライベートサブネット) 上に EKS クラスターを作成する必要があります。アプリケーションからプライベートネットワーク経由で ScalarDL Ledger にアクセスすることをお勧めします。 ### 要件に基づいていくつかのセキュリティ機能を使用して接続を制限する -ScalarDL Ledger では未使用の接続を制限する必要があります。 未使用の接続を制限するには、[security groups](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_SecurityGroups.html) や [network access control lists](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-network-acls.html) など、AWS のいくつかのセキュリティ機能を使用できます。 +ScalarDL Ledger では未使用の接続を制限する必要があります。未使用の接続を制限するには、[security groups](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_SecurityGroups.html) や [network access control lists](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-network-acls.html) など、AWS のいくつかのセキュリティ機能を使用できます。 ScalarDL Ledger がデフォルトで使用する接続 (ポート) は次のとおりです。 * ScalarDL Ledger * 50051/TCP (クライアントからのリクエストを受け付ける) * 50052/TCP (クライアントからの特権リクエストを受け入れます) - * 50053/TCP (scalar-admin クライアント ツールからの一時停止および一時停止解除リクエストを受け入れます) + * 50053/TCP (scalar-admin クライアントツールからの一時停止および一時停止解除リクエストを受け入れます) * 8080/TCP (監視リクエストを受け付ける) * Scalar Envoy (ScalarDL Ledger とともに使用) * 50051/TCP (ScalarDL Ledger の負荷分散) @@ -81,7 +82,7 @@ ScalarDL Ledger がデフォルトで使用する接続 (ポート) は次のと :::note -- 設定ファイル (`ledger.properties`) で ScalarDL Ledger のデフォルトのリスニング ポートを変更する場合は、設定したポートを使用して接続を許可する必要があります。 -- EKS 自体が使用する接続も許可する必要があります。 Amazon EKS セキュリティグループの要件の詳細については、[Amazon EKS security group requirements and considerations](https://docs.aws.amazon.com/eks/latest/userguide/sec-group-reqs.html) を参照してください。 +- 設定ファイル (`ledger.properties`) で ScalarDL Ledger のデフォルトのリスニングポートを変更する場合は、設定したポートを使用して接続を許可する必要があります。 +- EKS 自体が使用する接続も許可する必要があります。Amazon EKS セキュリティグループの要件の詳細については、[Amazon EKS security group requirements and considerations](https://docs.aws.amazon.com/eks/latest/userguide/sec-group-reqs.html) を参照してください。 ::: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateEKSClusterForScalarDLAuditor.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateEKSClusterForScalarDLAuditor.mdx index 4c86194a..af52de0e 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateEKSClusterForScalarDLAuditor.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateEKSClusterForScalarDLAuditor.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsJapanese --- # ScalarDL Ledger および ScalarDL Auditor 用の EKS クラスターを作成するためのガイドライン @@ -7,38 +8,38 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、ScalarDL Ledger および ScalarDL Auditor のデプロイ用の Amazon Elastic Kubernetes Service (EKS) クラスターを作成するための要件と推奨事項について説明します。 ScalarDL Ledger と ScalarDL Auditor を EKS クラスターにデプロイする方法の詳細については、[ScalarDL Ledger と ScalarDL Auditor を Amazon EKS にデプロイする](ManualDeploymentGuideScalarDLAuditorOnEKS.mdx) を参照してください。 +このドキュメントでは、ScalarDL Ledger および ScalarDL Auditor のデプロイ用の Amazon Elastic Kubernetes Service (EKS) クラスターを作成するための要件と推奨事項について説明します。ScalarDL Ledger と ScalarDL Auditor を EKS クラスターにデプロイする方法の詳細については、[ScalarDL Ledger と ScalarDL Auditor を Amazon EKS にデプロイする](ManualDeploymentGuideScalarDLAuditorOnEKS.mdx) を参照してください。 ## あなたが始める前に -EKS クラスターは、次の要件、推奨事項、およびプロジェクトの要件に基づいて作成する必要があります。 EKS クラスターの作成方法の詳細については、Amazon の公式ドキュメント [Creating an Amazon EKS cluster](https://docs.aws.amazon.com/eks/latest/userguide/create-cluster.html) を参照してください。 +EKS クラスターは、次の要件、推奨事項、およびプロジェクトの要件に基づいて作成する必要があります。EKS クラスターの作成方法の詳細については、Amazon の公式ドキュメント [Creating an Amazon EKS cluster](https://docs.aws.amazon.com/eks/latest/userguide/create-cluster.html) を参照してください。 ## 要件 ScalarDL Ledger と ScalarDL Auditor を展開する場合は、次のことを行う必要があります。 -* [サポートされている Kubernetes バージョン](https://scalardb.scalar-labs.com/docs/latest/requirements/#kubernetes) を使用して 2 つの EKS クラスターを作成します。 - * ScalarDL Ledger 用の 1 つの EKS クラスター - * ScalarDL Auditor 用の 1 つの EKS クラスター +* [サポートされている Kubernetes バージョン](https://scalardb.scalar-labs.com/docs/latest/requirements/#kubernetes)を使用して2つの EKS クラスターを作成します。 + * ScalarDL Ledger 用の1つの EKS クラスター + * ScalarDL Auditor 用の1つの EKS クラスター * Kubernetes のバージョンとプロジェクトの要件に基づいて EKS クラスターを構成します。 ※ Amazon Virtual Private Cloud (VPC) は次のように設定します。 - * **EKS の VPC (Ledger 用)** と **EKS の VPC (Auditor 用)** を [VPC peering](https://docs.aws.amazon.com/vpc/latest/peering/what-is-vpc-peering.html) を使用して接続します。 これを行うには、VPC の作成時に **EKS の VPC (Ledger 用)** と **EKS の VPC (Auditor 用)** に異なる IP 範囲を指定する必要があります。 + * **EKS の VPC (Ledger 用)** と **EKS の VPC (Auditor 用)** を [VPC peering](https://docs.aws.amazon.com/vpc/latest/peering/what-is-vpc-peering.html) を使用して接続します。これを行うには、VPC の作成時に **EKS の VPC (Ledger 用)** と **EKS の VPC (Auditor 用)** に異なる IP 範囲を指定する必要があります。 * ScalarDL (Auditor モード) が適切に動作するように **Ledger と Auditor 間の接続**を許可します。 - * これらのネットワーク要件の詳細については、[ScalarDL Auditor Mode のネットワーク ピアリングの構成](NetworkPeeringForScalarDLAuditor.mdx) を参照してください。 + * これらのネットワーク要件の詳細については、[ScalarDL Auditor Mode のネットワークピアリングの構成](NetworkPeeringForScalarDLAuditor.mdx)を参照してください。 :::warning -ScalarDL でのビザンチン障害検出が適切に機能するには、ScalarDL Ledger および ScalarDL Auditor のデプロイメントと同じ EKS クラスターにアプリケーション ポッドをデプロイしないでください。 +ScalarDL でのビザンチン障害検出が適切に機能するには、ScalarDL Ledger および ScalarDL Auditor のデプロイメントと同じ EKS クラスターにアプリケーションポッドをデプロイしないでください。 ::: ## 推奨事項 (オプション) -以下は、ScalarDL Ledger および ScalarDL Auditor を展開するための推奨事項の一部です。 これらの推奨事項は必須ではないため、ニーズに基づいてこれらの推奨事項を適用するかどうかを選択できます。 +以下は、ScalarDL Ledger および ScalarDL Auditor を展開するための推奨事項の一部です。これらの推奨事項は必須ではないため、ニーズに基づいてこれらの推奨事項を適用するかどうかを選択できます。 -### EKS クラスターごとに少なくとも 3 つのワーカーノードと 3 つのポッドを作成します +### EKS クラスターごとに少なくとも3つのワーカーノードと3つのポッドを作成します -EKS クラスターの高可用性を確保するには、少なくとも 3 つのワーカーノードを使用し、ワーカーノード全体に少なくとも 3 つのポッドをデプロイする必要があります。 3 つの Pod をワーカーノードに分散させるための `podAntiAffinity` の [ScalarDL Ledger サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-custom-values.yaml) と [ScalarDL Auditor サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-audit-custom-values.yaml) を参照できます。 +EKS クラスターの高可用性を確保するには、少なくとも3つのワーカーノードを使用し、ワーカーノード全体に少なくとも3つのポッドをデプロイする必要があります。3つの Pod をワーカーノードに分散させるための `podAntiAffinity` の [ScalarDL Ledger サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-custom-values.yaml)と [ScalarDL Auditor サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-audit-custom-values.yaml)を参照できます。 :::note @@ -46,9 +47,9 @@ EKS クラスターの高可用性を確保するには、少なくとも 3 つ ::: -### ScalarDL Ledger および ScalarDL Auditor ノード グループのワーカーノードには 4vCPU / 8GB メモリ ノードを使用します。 +### ScalarDL Ledger および ScalarDL Auditor ノードグループのワーカーノードには 4vCPU / 8GB メモリノードを使用します。 -商用ライセンスの観点から、ScalarDL Ledger または ScalarDL Auditor を実行する各ポッドのリソースは 2vCPU / 4GB メモリに制限されます。 ScalarDL Ledger および ScalarDL Auditor ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 +商用ライセンスの観点から、ScalarDL Ledger または ScalarDL Auditor を実行する各ポッドのリソースは 2vCPU / 4GB メモリに制限されます。ScalarDL Ledger および ScalarDL Auditor ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 * ScalarDL Ledger 用の EKS クラスター * ScalarDL Ledger ポッド (2vCPU / 4GB) @@ -61,35 +62,35 @@ EKS クラスターの高可用性を確保するには、少なくとも 3 つ * 監視コンポーネント (`kube-prometheus-stack` などの監視コンポーネントをデプロイする場合) * Kubernetes コンポーネント -これを念頭に置き、[少なくとも 3 つのワーカーノードと 3 つのポッドを作成する](#create-at-least-three-worker-nodes-and-three-pods-per-eks-cluster) で説明されているように、少なくとも 4vCPU / 8 GB のメモリ リソースを持つワーカーノードを使用し、可用性のために少なくとも 3 つのワーカーノードを使用する必要があります。 また、ビザンチン障害検出が適切に機能するには、ScalarDL Ledger および ScalarDL Auditor のデプロイメントと同じ EKS クラスターにアプリケーション ポッドをデプロイできないことを覚えておいてください。 +これを念頭に置き、[少なくとも3つのワーカーノードと3つのポッドを作成する](#create-at-least-three-worker-nodes-and-three-pods-per-eks-cluster)で説明されているように、少なくとも 4vCPU / 8 GB のメモリリソースを持つワーカーノードを使用し、可用性のために少なくとも3つのワーカーノードを使用する必要があります。また、ビザンチン障害検出が適切に機能するには、ScalarDL Ledger および ScalarDL Auditor のデプロイメントと同じ EKS クラスターにアプリケーションポッドをデプロイできないことを覚えておいてください。 -ただし、実稼働環境としては、ノードあたり少なくとも 4vCPU / 8GB のメモリ リソースを持つ 3 つのノードが必要です。 システムのワークロードに応じて、EKS クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDL Ledger ポッド、ScalarDL Auditor ポッドなど) も考慮する必要があります。 また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 +ただし、実稼働環境としては、ノードあたり少なくとも 4vCPU / 8GB のメモリリソースを持つ3つのノードが必要です。システムのワークロードに応じて、EKS クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDL Ledger ポッド、ScalarDL Auditor ポッドなど) も考慮する必要があります。また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 -### EKS でクラスター オートスケーラーを構成する +### EKS でクラスターオートスケーラーを構成する -[Horizontal Pod Autoscaler](https://docs.aws.amazon.com/eks/latest/userguide/horizontal-pod-autoscaler.html) を使用して ScalarDL Ledger または ScalarDL Auditor ポッドを自動的にスケーリングする場合は、EKS でクラスター オートスケーラーも構成する必要があります。 詳細については、Amazon の公式ドキュメント [Autoscaling](https://docs.aws.amazon.com/eks/latest/userguide/autoscaling.html#cluster-autoscaler) を参照してください。 +[Horizontal Pod Autoscaler](https://docs.aws.amazon.com/eks/latest/userguide/horizontal-pod-autoscaler.html) を使用して ScalarDL Ledger または ScalarDL Auditor ポッドを自動的にスケーリングする場合は、EKS でクラスターオートスケーラーも構成する必要があります。詳細については、Amazon の公式ドキュメント [Autoscaling](https://docs.aws.amazon.com/eks/latest/userguide/autoscaling.html#cluster-autoscaler) を参照してください。 -さらに、クラスター オートスケーラーを構成する場合は、スケーリング後にネットワークの問題なく EKS が動作できるように、十分な数の IP が存在することを確認するために、プレフィックス (`/24` など) を付けて EKS 用の VPC にサブネットを作成する必要があります。 +さらに、クラスターオートスケーラーを構成する場合は、スケーリング後にネットワークの問題なく EKS が動作できるように、十分な数の IP が存在することを確認するために、プレフィックス (`/24` など) を付けて EKS 用の VPC にサブネットを作成する必要があります。 -### プライベート ネットワーク上に EKS クラスターを作成する +### プライベートネットワーク上に EKS クラスターを作成する -ScalarDL Ledger と ScalarDL Auditor はインターネット アクセス経由でユーザーに直接サービスを提供しないため、プライベート ネットワーク (VPC 内のプライベート サブネット) 上に EKS クラスターを作成する必要があります。 アプリケーションからプライベート ネットワーク経由で ScalarDL Ledger および ScalarDL Auditor にアクセスすることをお勧めします。 +ScalarDL Ledger と ScalarDL Auditor はインターネットアクセス経由でユーザーに直接サービスを提供しないため、プライベートネットワーク (VPC 内のプライベートサブネット) 上に EKS クラスターを作成する必要があります。アプリケーションからプライベートネットワーク経由で ScalarDL Ledger および ScalarDL Auditor にアクセスすることをお勧めします。 ### 要件に基づいていくつかのセキュリティ機能を使用して接続を制限する -ScalarDL Ledger および ScalarDL Auditor で未使用の接続を制限する必要があります。 未使用の接続を制限するには、[security groups](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_SecurityGroups.html) や [network access control lists](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-network-acls.html) など、AWS のいくつかのセキュリティ機能を使用できます。 +ScalarDL Ledger および ScalarDL Auditor で未使用の接続を制限する必要があります。未使用の接続を制限するには、[security groups](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_SecurityGroups.html) や [network access control lists](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-network-acls.html) など、AWS のいくつかのセキュリティ機能を使用できます。 ScalarDL Ledger および ScalarDL Auditor がデフォルトで使用する接続 (ポート) は次のとおりです。 * ScalarDL Ledger * 50051/TCP (クライアントおよび ScalarDL Auditor からのリクエストを受け入れる) * 50052/TCP (クライアントおよび ScalarDL Auditor からの特権リクエストを受け入れます) - * 50053/TCP (scalar-admin クライアント ツールからの一時停止および一時停止解除リクエストを受け入れます) + * 50053/TCP (scalar-admin クライアントツールからの一時停止および一時停止解除リクエストを受け入れます) * 8080/TCP (監視リクエストを受け付ける) * ScalarDL Auditor * 40051/TCP (クライアントからのリクエストを受け付ける) * 40052/TCP (クライアントからの特権リクエストを受け入れます) - * 40053/TCP (scalar-admin クライアント ツールからの一時停止および一時停止解除リクエストを受け入れます) + * 40053/TCP (scalar-admin クライアントツールからの一時停止および一時停止解除リクエストを受け入れます) * 8080/TCP (監視リクエストを受け付ける) * Scalar Envoy (ScalarDL Ledger および ScalarDL Auditor とともに使用) * 50051/TCP (ScalarDL Ledger の負荷分散) @@ -100,7 +101,7 @@ ScalarDL Ledger および ScalarDL Auditor がデフォルトで使用する接 :::note -- 設定ファイル (それぞれ `ledger.properties` と `auditor.properties`) で ScalarDL Ledger と ScalarDL Auditor のデフォルトのリスニング ポートを変更する場合は、設定したポートを使用して接続を許可する必要があります。 -- EKS 自体が使用する接続も許可する必要があります。 Amazon EKS セキュリティグループの要件の詳細については、[Amazon EKS security group requirements and considerations](https://docs.aws.amazon.com/eks/latest/userguide/sec-group-reqs.html) を参照してください。 +- 設定ファイル (それぞれ `ledger.properties` と `auditor.properties`) で ScalarDL Ledger と ScalarDL Auditor のデフォルトのリスニングポートを変更する場合は、設定したポートを使用して接続を許可する必要があります。 +- EKS 自体が使用する接続も許可する必要があります。Amazon EKS セキュリティグループの要件の詳細については、[Amazon EKS security group requirements and considerations](https://docs.aws.amazon.com/eks/latest/userguide/sec-group-reqs.html) を参照してください。 ::: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateEKSClusterForScalarProducts.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateEKSClusterForScalarProducts.mdx index 2568646a..fce1470b 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateEKSClusterForScalarProducts.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/CreateEKSClusterForScalarProducts.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Scalar 製品用の Amazon EKS クラスターを作成するためのガイドライン diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx index 8f60e768..3cf970de 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Scalar 製品で TLS 接続に利用する秘密鍵と証明書ファイルを作成する方法 @@ -16,14 +17,14 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; * 秘密鍵と証明書ファイルのアルゴリズムとしては `RSA` または `ECDSA` のみ使用可能です。 -## サンプルの秘密キーと証明書ファイルを作成する手順の例 +## サンプルの秘密鍵と証明書ファイルを作成する手順の例 -[`cfssl` および `cfssljson`](https://github.com/cloudflare/cfssl) を使用して、サンプルの秘密キーと証明書ファイルを作成できます。 `cfssl` と `cfssljson` をまだインストールしていない場合は、まずインストールしてください。 +[`cfssl` および `cfssljson`](https://github.com/cloudflare/cfssl) を使用して、サンプルの秘密鍵と証明書ファイルを作成できます。`cfssl` と `cfssljson` をまだインストールしていない場合は、まずインストールしてください。 :::note -* `openssl` などの他のツールを使用して、秘密鍵と証明書ファイルを作成することもできます。 あるいは、サードパーティ CA またはプライベート CA の管理者に本番環境用の秘密キーと証明書の作成を依頼することもできます。 -* この例では自己署名証明書を作成します。 ただし、これらの証明書を運用環境では使用しないことを強くお勧めします。 セキュリティ要件に基づいて実稼働環境用の証明書ファイルを作成するように、信頼できる発行者 (パブリック CA またはプライベート CA) に依頼してください。 +* `openssl` などの他のツールを使用して、秘密鍵と証明書ファイルを作成することもできます。あるいは、サードパーティ CA またはプライベート CA の管理者に本番環境用の秘密鍵と証明書の作成を依頼することもできます。 +* この例では自己署名証明書を作成します。ただし、これらの証明書を運用環境では使用しないことを強くお勧めします。セキュリティ要件に基づいて実稼働環境用の証明書ファイルを作成するように、信頼できる発行者 (パブリック CA またはプライベート CA) に依頼してください。 ::: @@ -117,13 +118,13 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; EOF ``` -1. サーバーの秘密キーと証明書ファイルを作成します。 +1. サーバーの秘密鍵と証明書ファイルを作成します。 ```console cfssl gencert -ca ca.pem -ca-key ca-key.pem -config ca-config.json -profile scalar-example-ca server.json | cfssljson -bare server ``` -1. 秘密キーと証明書ファイルが作成されたことを確認します。 +1. 秘密鍵と証明書ファイルが作成されたことを確認します。 ```console ls -1 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToGetContainerImages.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToGetContainerImages.mdx index ed530433..9867c099 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToGetContainerImages.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToGetContainerImages.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Scalar 製品のコンテナイメージの取得方法 @@ -12,16 +13,16 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -Scalar 製品のコンテナ イメージは、いくつかの方法で取得できます。 以下のいずれかの方法をお選びください。 +Scalar 製品のコンテナイメージは、いくつかの方法で取得できます。以下のいずれかの方法をお選びください。 - 商用ライセンスをお持ちの場合は、パブリックコンテナーリポジトリからコンテナイメージを取得できます。 コンテナイメージの使用方法の詳細については、[コンテナイメージの使用方法](./HowToUseContainerImages.mdx) を参照してください。 + 商用ライセンスをお持ちの場合は、パブリックコンテナーリポジトリからコンテナイメージを取得できます。コンテナイメージの使用方法の詳細については、[コンテナイメージの使用方法](./HowToUseContainerImages.mdx)を参照してください。 - Scalar 製品は AWS Marketplace から入手できます。 AWS Marketplace の詳細については、[AWS Marketplace 経由で Scalar 製品をインストールする方法](./AwsMarketplaceGuide.mdx) を参照してください。 + Scalar 製品は AWS Marketplace から入手できます。AWS Marketplace の詳細については、[AWS Marketplace 経由で Scalar 製品をインストールする方法](./AwsMarketplaceGuide.mdx)を参照してください。 - 現在、Azure Marketplace の Scalar 製品は利用できません。 代わりに他の方法を使用してください。 + 現在、Azure Marketplace の Scalar 製品は利用できません。代わりに他の方法を使用してください。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToScaleScalarDB.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToScaleScalarDB.mdx index 53cc076b..addedef2 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToScaleScalarDB.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToScaleScalarDB.mdx @@ -3,6 +3,7 @@ tags: - Community - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # ScalarDB をスケーリングする方法 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToScaleScalarDL.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToScaleScalarDL.mdx index 6268fb01..bd515bcb 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToScaleScalarDL.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToScaleScalarDL.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsJapanese --- # ScalarDL をスケーリングする方法 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToUpgradeScalarDB.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToUpgradeScalarDB.mdx index fec1e03a..fac778aa 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToUpgradeScalarDB.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToUpgradeScalarDB.mdx @@ -3,6 +3,7 @@ tags: - Community - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # ScalarDB のアップグレード方法 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToUpgradeScalarDL.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToUpgradeScalarDL.mdx index 7881896b..0d479441 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToUpgradeScalarDL.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToUpgradeScalarDL.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsJapanese --- # ScalarDL のアップグレード方法 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToUseContainerImages.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToUseContainerImages.mdx index d585d943..61a7ec7f 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToUseContainerImages.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/HowToUseContainerImages.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # コンテナイメージの使用方法 @@ -12,14 +13,14 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -パブリックコンテナリポジトリからコンテナイメージをプルできます。 コンテナイメージを使用する場合は、`.properties` ファイルにライセンスキーと証明書を設定する必要があります。 +パブリックコンテナリポジトリからコンテナイメージをプルできます。コンテナイメージを使用する場合は、`.properties` ファイルにライセンスキーと証明書を設定する必要があります。 ## 前提条件 パブリックコンテナイメージは、次の製品とバージョンで利用できます。 -* ScalarDB Cluster v3.12 以降 -* ScalarDL v3.9 以降 +* ScalarDB Cluster v3.12以降 +* ScalarDL v3.9以降 ## パブリックコンテナリポジトリからコンテナイメージをプルします。 @@ -85,7 +86,7 @@ Scalar Helm Chart を使用する場合は、カスタム値ファイルに `*.i ## `.properties` ファイルにライセンスキーを設定します -コンテナイメージを実行するには、`.properties` ファイルに `ライセンスキー` と `証明書` を設定する必要があります。Scalar 製品を選択して、`license key` と `certificate` を設定する方法を確認してください。ライセンスキーをお持ちでない場合は、[お問い合わせ](https://www.scalar-labs.com/contact) までご連絡ください。 +コンテナイメージを実行するには、`.properties` ファイルに `ライセンスキー` と `証明書` を設定する必要があります。Scalar 製品を選択して、`license key` と `certificate` を設定する方法を確認してください。ライセンスキーをお持ちでない場合は、[お問い合わせ](https://www.scalar-labs.com/contact)までご連絡ください。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/K8sLogCollectionGuide.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/K8sLogCollectionGuide.mdx index 2e86c17c..0ca21c3d 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/K8sLogCollectionGuide.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/K8sLogCollectionGuide.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Kubernetes クラスター上の Scalar 製品からのログの収集 @@ -12,9 +13,9 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、Helm を使用して Grafana Loki と Promtail を Kubernetes にデプロイする方法について説明します。 このドキュメントに従うと、Kubernetes 環境で Scalar 製品のログを収集できます。 +このドキュメントでは、Helm を使用して Grafana Loki と Promtail を Kubernetes にデプロイする方法について説明します。このドキュメントに従うと、Kubernetes 環境で Scalar 製品のログを収集できます。 -マネージド Kubernetes クラスターを使用しており、監視とログ記録にクラウド サービス機能を使用したい場合は、次のドキュメントを参照してください。 +マネージド Kubernetes クラスターを使用しており、監視とログ記録にクラウドサービス機能を使用したい場合は、次のドキュメントを参照してください。 * [Logging and monitoring on Amazon EKS](https://docs.aws.amazon.com/prescriptive-guidance/latest/implementing-logging-monitoring-cloudwatch/amazon-eks-logging-monitoring.html) * [Monitoring Azure Kubernetes Service (AKS) with Azure Monitor](https://learn.microsoft.com/en-us/azure/aks/monitor-aks) @@ -24,8 +25,8 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; * Kubernetes クラスターを作成します。 * [Scalar 製品用の EKS クラスターを作成する](CreateEKSClusterForScalarProducts.mdx) * [Scalar 製品用の AKS クラスターを作成する](CreateAKSClusterForScalarProducts.mdx) -* 要塞サーバーを作成し、`kubeconfig` を設定します。 - * [要塞サーバーの作成](CreateBastionServer.mdx) +* 踏み台サーバーを作成し、`kubeconfig` を設定します。 + * [踏み台サーバーの作成](CreateBastionServer.mdx) * Prometheus Operator をデプロイします (収集されたログを調査するために Grafana を使用します) * [Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) @@ -42,7 +43,7 @@ helm repo update ## カスタム値ファイルを準備する -loki-stack のサンプルファイル [scalar-loki-stack-custom-values.yaml](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalar-loki-stack-custom-values.yaml) を入手してください。 Scalar 製品のロギングには、このサンプル ファイルの構成をお勧めします。 +loki-stack のサンプルファイル [scalar-loki-stack-custom-values.yaml](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalar-loki-stack-custom-values.yaml) を入手してください。Scalar 製品のロギングには、このサンプルファイルの構成をお勧めします。 ### カスタム値ファイルで nodeSelector を設定する (オプション) @@ -148,7 +149,7 @@ Kubernetes ワーカーノードにテイントを追加している場合は、 ## Loki と Promtail をデプロイする -Loki と Promtail は、Prometheus や Grafana と同じ名前空間 `Monitoring` にデプロイすることをお勧めします。 `Monitoring` 名前空間は、ドキュメント [Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) ですでに作成済みです。 +Loki と Promtail は、Prometheus や Grafana と同じ名前空間 `Monitoring` にデプロイすることをお勧めします。`Monitoring` 名前空間は、ドキュメント [Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx)ですでに作成済みです。 ```console helm install scalar-logging-loki grafana/loki-stack -n monitoring -f scalar-loki-stack-custom-values.yaml @@ -156,7 +157,7 @@ helm install scalar-logging-loki grafana/loki-stack -n monitoring -f scalar-loki ## Loki と Promtail がデプロイされているかどうかを確認する -Loki および Promtail ポッドが適切にデプロイされている場合は、次のコマンドを使用して、`STATUS` が `Running` であることが確認できます。 promtail ポッドは DaemonSet としてデプロイされるため、promtail ポッドの数は Kubernetes ノードの数によって異なります。 次の例では、Kubernetes クラスター内に Scalar 製品のワーカーノードが 3 つあります。 +Loki および Promtail ポッドが適切にデプロイされている場合は、次のコマンドを使用して、`STATUS` が `Running` であることが確認できます。promtail ポッドは DaemonSet としてデプロイされるため、promtail ポッドの数は Kubernetes ノードの数によって異なります。次の例では、Kubernetes クラスター内に Scalar 製品のワーカーノードが3つあります。 ```console kubectl get pod -n monitoring @@ -182,4 +183,4 @@ scalar-logging-loki-promtail-gfx44 1/1 Running 0 32m 1. ログを問い合わせる条件を設定する。 1. 右上の `Run query` ボタンを選択します。 -Grafana ダッシュボードへのアクセス方法の詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) を参照してください。 +Grafana ダッシュボードへのアクセス方法の詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx)を参照してください。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/K8sMonitorGuide.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/K8sMonitorGuide.mdx index c0604fe8..69faf426 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/K8sMonitorGuide.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/K8sMonitorGuide.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Kubernetes クラスター上の Scalar 製品の監視 @@ -10,9 +11,9 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、Helm を使用して Prometheus Operator を Kubernetes にデプロイする方法について説明します。 このドキュメントに従うと、Prometheus、Alertmanager、および Grafana を使用して、Kubernetes 環境上の Scalar 製品を監視できるようになります。 +このドキュメントでは、Helm を使用して Prometheus Operator を Kubernetes にデプロイする方法について説明します。このドキュメントに従うと、Prometheus、Alertmanager、および Grafana を使用して、Kubernetes 環境上の Scalar 製品を監視できるようになります。 -マネージド Kubernetes クラスターを使用しており、監視とログ記録にクラウド サービス機能を使用したい場合は、次のドキュメントを参照してください。 +マネージド Kubernetes クラスターを使用しており、監視とログ記録にクラウドサービス機能を使用したい場合は、次のドキュメントを参照してください。 * [Logging and monitoring on Amazon EKS](https://docs.aws.amazon.com/prescriptive-guidance/latest/implementing-logging-monitoring-cloudwatch/amazon-eks-logging-monitoring.html) * [Monitoring Azure Kubernetes Service (AKS) with Azure Monitor](https://learn.microsoft.com/en-us/azure/aks/monitor-aks) @@ -22,8 +23,8 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; * Kubernetes クラスターを作成します。 * [Scalar 製品用の EKS クラスターを作成する](CreateEKSClusterForScalarProducts.mdx) * [Scalar 製品用の AKS クラスターを作成する](CreateAKSClusterForScalarProducts.mdx) -* 要塞サーバーを作成し、`kubeconfig`を設定します。 - * [要塞サーバーの作成](CreateBastionServer.mdx) +* 踏み台サーバーを作成し、`kubeconfig`を設定します。 + * [踏み台サーバーの作成](CreateBastionServer.mdx) ## prometheus-community helm リポジトリを追加します @@ -38,9 +39,9 @@ helm repo update ## カスタム値ファイルを準備する -kube-prometheus-stack のサンプル ファイル [scalar-prometheus-custom-values.yaml](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalar-prometheus-custom-values.yaml) を取得してください。 Scalar 製品の監視には、このサンプル ファイルの構成をお勧めします。 +kube-prometheus-stack のサンプルファイル [scalar-prometheus-custom-values.yaml](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalar-prometheus-custom-values.yaml) を取得してください。Scalar 製品の監視には、このサンプルファイルの構成をお勧めします。 -このサンプル ファイルでは、サービス リソースは Kubernetes クラスターの外部からのアクセスに公開されていません。 Kubernetes クラスターの外部からダッシュボードにアクセスしたい場合は、`*.service.type` を `LoadBalancer` に設定するか、`*.ingress.enabled` を `true` に設定する必要があります。 +このサンプルファイルでは、サービスリソースは Kubernetes クラスターの外部からのアクセスに公開されていません。Kubernetes クラスターの外部からダッシュボードにアクセスしたい場合は、`*.service.type` を `LoadBalancer` に設定するか、`*.ingress.enabled` を `true` に設定する必要があります。 kube-prometheus-stackの設定の詳細については、以下の公式ドキュメントを参照してください。 @@ -48,7 +49,7 @@ kube-prometheus-stackの設定の詳細については、以下の公式ドキ ## Prometheus Operator をデプロイする -Scalar 製品は、Prometheus Operator がデフォルトで `monitoring` 名前空間にデプロイされていることを前提としています。 したがって、`monitoring` 名前空間を作成し、`monitoring` 名前空間に Prometheus Operator をデプロイしてください。 +Scalar 製品は、Prometheus Operator がデフォルトで `monitoring` 名前空間にデプロイされていることを前提としています。したがって、`monitoring` 名前空間を作成し、`monitoring` 名前空間に Prometheus Operator をデプロイしてください。 1. Kubernetes 上に名前空間 `monitoring` を作成します。 ```console @@ -107,7 +108,7 @@ scalar-monitoring-kube-pro-operator-865bbb8454-9ppkc 1/1 Running 0 ## ダッシュボードにアクセスする方法 -`*.service.type` を `LoadBalancer` に設定するか、`*.ingress.enabled` を `true` に設定すると、Kubernetes の Service または Ingress 経由でダッシュボードにアクセスできます。 具体的な実装とアクセス方法はKubernetesクラスタに依存します。 マネージド Kubernetes クラスターを使用する場合、詳細についてはクラウド プロバイダーの公式ドキュメントを参照してください。 +`*.service.type` を `LoadBalancer` に設定するか、`*.ingress.enabled` を `true` に設定すると、Kubernetes の Service または Ingress 経由でダッシュボードにアクセスできます。具体的な実装とアクセス方法はKubernetesクラスタに依存します。マネージド Kubernetes クラスターを使用する場合、詳細についてはクラウドプロバイダーの公式ドキュメントを参照してください。 * EKS * [Network load balancing on Amazon EKS](https://docs.aws.amazon.com/eks/latest/userguide/network-load-balancing.html) @@ -116,11 +117,11 @@ scalar-monitoring-kube-pro-operator-865bbb8454-9ppkc 1/1 Running 0 * [Use a public standard load balancer in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/load-balancer-standard) * [Create an ingress controller in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/ingress-basic) -## ローカル マシンからダッシュボードにアクセスします (テスト目的のみ / 運用環境では推奨されません) +## ローカルマシンからダッシュボードにアクセスします (テスト目的のみ / 運用環境では推奨されません) -`kubectl port-forward` コマンドを使用して、ローカル マシンから各ダッシュボードにアクセスできます。 +`kubectl port-forward` コマンドを使用して、ローカルマシンから各ダッシュボードにアクセスできます。 -1. ローカル マシンから各サービスへのポート転送。 +1. ローカルマシンから各サービスへのポート転送。 * Prometheus ```console kubectl port-forward -n monitoring svc/scalar-monitoring-kube-pro-prometheus 9090:9090 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDBClusterOnEKS.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDBClusterOnEKS.mdx index 6b4e5a92..abf62867 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDBClusterOnEKS.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDBClusterOnEKS.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Amazon Elastic Kubernetes Service (EKS) に ScalarDB Cluster をデプロイする @@ -12,57 +13,57 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; このガイドでは、ScalarDB Cluster を Amazon Elastic Kubernetes Service (EKS) にデプロイする方法について説明します。 -このガイドでは、AWS 環境に次の 2 つの環境のいずれかを作成します。 環境は、使用する [client mode](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/developer-guide-for-scalardb-cluster-with-java-api#client-modes) によって異なります。 +このガイドでは、AWS 環境に次の2つの環境のいずれかを作成します。環境は、使用する [client mode](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/developer-guide-for-scalardb-cluster-with-java-api#client-modes) によって異なります。 * **[`direct-kubernetes` client mode](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/developer-guide-for-scalardb-cluster-with-java-api#direct-kubernetes-client-mode).** このモードでは、ScalarDB Cluster のデプロイメントと同じ EKS クラスターにアプリケーションをデプロイします。 - ![image](./images/png/EKS_ScalarDB_Cluster_Direct_Kubernetes_Mode.drawio.png) + ![image](./images/png/EKS_ScalarDB_Cluster_Direct_Kubernetes_Mode.drawio.png) * **[`indirect` client mode](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/developer-guide-for-scalardb-cluster-with-java-api#indirect-client-mode).** このモードでは、ScalarDB Cluster のデプロイメントを含む EKS クラスターとは異なる環境にアプリケーションをデプロイします。 ![image](./images/png/EKS_ScalarDB_Cluster_Indirect_Mode.drawio.png) -## ステップ 1. AWS Marketplace で ScalarDB Cluster にサブスクライブする +## ステップ1. AWS Marketplace で ScalarDB Cluster にサブスクライブする -ScalarDB Cluster コンテナ イメージを取得するには、AWS Marketplace にアクセスし、[ScalarDB Cluster Standard Edition (Pay-As-You-Go)](https://aws.amazon.com/marketplace/pp/prodview-jx6qxatkxuwm4) または [ScalarDB Cluster Premium Edition (Pay-As-You-Go)](https://aws.amazon.com/marketplace/pp/prodview-djqw3zk6dwyk6) をサブスクライブする必要があります。 AWS Marketplace で ScalarDB Cluster をサブスクライブする方法の詳細については、[AWS Marketplace から Scalar 製品を購読する](AwsMarketplaceGuide.mdx#aws-marketplace-から-scalar-製品を購読する) を参照してください。 +ScalarDB Cluster コンテナイメージを取得するには、AWS Marketplace にアクセスし、[ScalarDB Cluster Standard Edition (Pay-As-You-Go)](https://aws.amazon.com/marketplace/pp/prodview-jx6qxatkxuwm4) または [ScalarDB Cluster Premium Edition (Pay-As-You-Go)](https://aws.amazon.com/marketplace/pp/prodview-djqw3zk6dwyk6) をサブスクライブする必要があります。AWS Marketplace で ScalarDB Cluster をサブスクライブする方法の詳細については、[AWS Marketplace から Scalar 製品を購読する](AwsMarketplaceGuide.mdx#aws-marketplace-から-scalar-製品を購読する)を参照してください。 -## ステップ 2. EKS クラスターを作成する +## ステップ2. EKS クラスターを作成する -ScalarDB Cluster のデプロイメント用の EKS クラスターを作成する必要があります。 詳細については、[Scalar 製品用の Amazon EKS クラスターを作成するためのガイドライン](CreateEKSClusterForScalarProducts.mdx) を参照してください。 +ScalarDB Cluster のデプロイメント用の EKS クラスターを作成する必要があります。詳細については、[Scalar 製品用の Amazon EKS クラスターを作成するためのガイドライン](CreateEKSClusterForScalarProducts.mdx)を参照してください。 -## ステップ 3. ScalarDB Cluster のデータベースをセットアップする +## ステップ3. ScalarDB Cluster のデータベースをセットアップする -ScalarDB Cluster をデプロイする前にデータベースを準備する必要があります。 ScalarDB がサポートするデータベースのタイプを確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 +ScalarDB Cluster をデプロイする前にデータベースを準備する必要があります。ScalarDB がサポートするデータベースのタイプを確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 -データベースのセットアップの詳細については、[AWS での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAWS.mdx) を参照してください。 +データベースのセットアップの詳細については、[AWS での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAWS.mdx)を参照してください。 -## ステップ 4. 要塞サーバーを作成する +## ステップ4. 踏み台サーバーを作成する -EKS 上で ScalarDB Cluster をデプロイおよび管理するためのいくつかのツールを実行するには、**ステップ 2** で作成した EKS クラスターの同じ Amazon Virtual Private Cloud (VPC) 内に要塞サーバーを準備する必要があります。 詳細については、[要塞サーバーの作成](CreateBastionServer.mdx) を参照してください。 +EKS 上で ScalarDB Cluster をデプロイおよび管理するためのいくつかのツールを実行するには、**ステップ2**で作成した EKS クラスターの同じ Amazon Virtual Private Cloud (VPC) 内に踏み台サーバーを準備する必要があります。詳細については、[踏み台サーバーの作成](CreateBastionServer.mdx)を参照してください。 -## ステップ 5. Scalar Helm Chart のカスタム値ファイルを準備する +## ステップ5. Scalar Helm Chart のカスタム値ファイルを準備する -**ステップ 3** で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDB Cluster の Scalar Helm Chart のカスタム値ファイルを構成する必要があります。 詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 +**ステップ3**で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDB Cluster の Scalar Helm Chart のカスタム値ファイルを構成する必要があります。詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 -**注意:** ScalarDB Cluster がデプロイされている EKS クラスターとは異なる環境にアプリケーションをデプロイする場合 (つまり、`indirect` クライアント モードを使用する場合)、`envoy.enabled` パラメーターを次のように設定する必要があります。 アプリケーションから Scalar Envoy にアクセスするには、`true` と `envoy.service.type` パラメータを `LoadBalancer` に設定します。 +**注意:** ScalarDB Cluster がデプロイされている EKS クラスターとは異なる環境にアプリケーションをデプロイする場合 (つまり、`indirect` クライアントモードを使用する場合)、`envoy.enabled` パラメーターを次のように設定する必要があります。アプリケーションから Scalar Envoy にアクセスするには、`true` と `envoy.service.type` パラメータを `LoadBalancer` に設定します。 -## ステップ 6. Scalar Helm Chart を使用して ScalarDB Cluster をデプロイする +## ステップ6. Scalar Helm Chart を使用して ScalarDB Cluster をデプロイする -ScalarDB Cluster の Helm Chart を使用して、EKS クラスターに ScalarDB Cluster をデプロイします。 詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 +ScalarDB Cluster の Helm Chart を使用して、EKS クラスターに ScalarDB Cluster をデプロイします。詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 **注意:** `kubectl create ns scalardb-cluster` コマンドを使用して専用の名前空間を作成し、`helm install` コマンドで `-n scalardb-cluster` オプションを使用して名前空間に ScalarDB Cluster をデプロイすることをお勧めします。 -## ステップ 7. ScalarDB Cluster のデプロイメントのステータスを確認する +## ステップ7. ScalarDB Cluster のデプロイメントのステータスを確認する -EKS クラスターに ScalarDB Cluster をデプロイした後、各コンポーネントのステータスを確認する必要があります。 詳細については、[Kubernetes 環境で実行するときに定期的に確認するコンポーネント](./ RegularCheck.mdx) を参照してください。 +EKS クラスターに ScalarDB Cluster をデプロイした後、各コンポーネントのステータスを確認する必要があります。詳細については、[Kubernetes 環境で実行するときに定期的に確認するコンポーネント](./ RegularCheck.mdx) を参照してください。 -## ステップ 8. ScalarDB Cluster のデプロイメントを監視する +## ステップ8. ScalarDB Cluster のデプロイメントを監視する -EKS クラスターに ScalarDB Cluster をデプロイした後、特に本番環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。 詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx) を参照してください。 +EKS クラスターに ScalarDB Cluster をデプロイした後、特に本番環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx)および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx)を参照してください。 -## ステップ 9. アプリケーションをデプロイする +## ステップ9. アプリケーションをデプロイする -[`direct-kubernetes` client mode](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/developer-guide-for-scalardb-cluster-with-java-api#direct-kubernetes-client-mode) を使用する場合は、追加の Kubernetes リソースをデプロイする必要があります。 詳細については、[Deploy your client application on Kubernetes with `direct-kubernetes` mode](../helm-charts/how-to-deploy-scalardb-cluster.mdx#direct-kubernetes-モードを使用してクライアント-アプリケーションを-kubernetes-にデプロイします) を参照してください。 +[`direct-kubernetes` client mode](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/developer-guide-for-scalardb-cluster-with-java-api#direct-kubernetes-client-mode) を使用する場合は、追加の Kubernetes リソースをデプロイする必要があります。詳細については、[Deploy your client application on Kubernetes with `direct-kubernetes` mode](../helm-charts/how-to-deploy-scalardb-cluster.mdx#direct-kubernetes-モードを使用してクライアント-アプリケーションを-kubernetes-にデプロイします) を参照してください。 ## EKS から ScalarDB Cluster を削除 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDBServerOnAKS.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDBServerOnAKS.mdx index d8fcd074..6d195871 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDBServerOnAKS.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDBServerOnAKS.mdx @@ -3,6 +3,7 @@ tags: - Enterprise Standard - Enterprise Premium - Deprecated +displayed_sidebar: docsJapanese --- # [非推奨] Azure Kubernetes Service (AKS) に ScalarDB Server をデプロイする @@ -13,53 +14,53 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; このガイドでは、ScalarDB Server を Azure Kubernetes Service (AKS) にデプロイする方法について説明します。 -このガイドでは、Azure 環境に次の 2 つの環境のいずれかを作成します。 2 つの環境の違いは、アプリケーションのデプロイをどのように計画するかです。 +このガイドでは、Azure 環境に次の2つの環境のいずれかを作成します。2つの環境の違いは、アプリケーションのデプロイをどのように計画するかです。 -* アプリケーションを ScalarDB Server デプロイメントと同じ AKS クラスターにデプロイします。 この場合、アプリケーションから Scalar Envoy にアクセスするために Azure が提供するロード バランサーを使用する必要はありません。 - - ![image](./images/png/AKS_ScalarDB_Server_App_In_Cluster.drawio.png) +* アプリケーションを ScalarDB Server デプロイメントと同じ AKS クラスターにデプロイします。この場合、アプリケーションから Scalar Envoy にアクセスするために Azure が提供するロードバランサーを使用する必要はありません。 -* ScalarDB Server デプロイを含む AKS クラスターとは異なる環境にアプリケーションをデプロイします。 この場合、アプリケーションから Scalar Envoy にアクセスするには、Azure が提供するロード バランサーを使用する必要があります。 + ![image](./images/png/AKS_ScalarDB_Server_App_In_Cluster.drawio.png) - ![image](./images/png/AKS_ScalarDB_Server_App_Out_Cluster.drawio.png) +* ScalarDB Server デプロイを含む AKS クラスターとは異なる環境にアプリケーションをデプロイします。この場合、アプリケーションから Scalar Envoy にアクセスするには、Azure が提供するロードバランサーを使用する必要があります。 -## ステップ 1. Azure Marketplace で ScalarDB Server にサブスクライブする + ![image](./images/png/AKS_ScalarDB_Server_App_Out_Cluster.drawio.png) -[Azure Marketplace](https://azuremarketplace.microsoft.com/en/marketplace/apps/scalarinc.scalardb) にアクセスし、ScalarDB Server をサブスクライブして、ScalarDB Server コンテナー イメージを取得する必要があります。 Azure Marketplace で ScalarDB Server をサブスクライブする方法の詳細については、[Microsoft Azure Marketplace から Scalar 製品を入手する](AzureMarketplaceGuide.mdx#microsoft-azure-marketplace-から-scalar-製品を入手する) を参照してください。 +## ステップ1. Azure Marketplace で ScalarDB Server にサブスクライブする -## ステップ 2. AKS クラスターを作成する +[Azure Marketplace](https://azuremarketplace.microsoft.com/en/marketplace/apps/scalarinc.scalardb) にアクセスし、ScalarDB Server をサブスクライブして、ScalarDB Server コンテナーイメージを取得する必要があります。Azure Marketplace で ScalarDB Server をサブスクライブする方法の詳細については、[Microsoft Azure Marketplace から Scalar 製品を入手する](AzureMarketplaceGuide.mdx#microsoft-azure-marketplace-から-scalar-製品を入手する)を参照してください。 -ScalarDB Server デプロイ用の AKS クラスターを作成する必要があります。 詳細については、[Scalar 製品用の AKS クラスターを作成するためのガイドライン](CreateAKSClusterForScalarProducts.mdx) を参照してください。 +## ステップ2. AKS クラスターを作成する -## ステップ 3. ScalarDB Server のデータベースをセットアップする +ScalarDB Server デプロイ用の AKS クラスターを作成する必要があります。詳細については、[Scalar 製品用の AKS クラスターを作成するためのガイドライン](CreateAKSClusterForScalarProducts.mdx)を参照してください。 -ScalarDB Server を展開する前にデータベースを準備する必要があります。 ScalarDB がサポートするデータベースのタイプを確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 +## ステップ3. ScalarDB Server のデータベースをセットアップする -データベースのセットアップの詳細については、[Azure での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAzure.mdx) を参照してください。 +ScalarDB Server を展開する前にデータベースを準備する必要があります。ScalarDB がサポートするデータベースのタイプを確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 -## ステップ 4. 要塞サーバーを作成する +データベースのセットアップの詳細については、[Azure での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAzure.mdx)を参照してください。 -AKS 上で ScalarDB Server をデプロイおよび管理するためのいくつかのツールを実行するには、**手順 2** で作成した AKS クラスターの同じ Azure Virtual Networks (VNet) 内に要塞サーバーを準備する必要があります。 詳細については、[要塞サーバーの作成](CreateBastionServer.mdx) を参照してください。 +## ステップ4. 踏み台サーバーを作成する -## ステップ 5. Scalar Helm Chart のカスタム値ファイルを準備する +AKS 上で ScalarDB Server をデプロイおよび管理するためのいくつかのツールを実行するには、**手順2**で作成した AKS クラスターの同じ Azure Virtual Networks (VNet) 内に踏み台サーバーを準備する必要があります。詳細については、[踏み台サーバーの作成](CreateBastionServer.mdx)を参照してください。 -**ステップ 3** で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDB Server の Scalar Helm Chart のカスタム値ファイルを構成する必要があります。 詳細については、[Configure a custom values file of Scalar Helm Chart](../helm-charts/configure-custom-values-file.mdx) を参照してください。 +## ステップ5. Scalar Helm Chart のカスタム値ファイルを準備する -**注:** ScalarDB Server がデプロイされている AKS クラスターとは異なる環境にアプリケーションをデプロイする場合、Scalar Envoy にアクセスするには、`envoy.service.type` パラメーターを `LoadBalancer` に設定する必要があります。 応用。 +**ステップ3**で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDB Server の Scalar Helm Chart のカスタム値ファイルを構成する必要があります。詳細については、[Configure a custom values file of Scalar Helm Chart](../helm-charts/configure-custom-values-file.mdx) を参照してください。 -## ステップ 6. Scalar Helm Chart を使用して ScalarDB Server をデプロイする +**注:** ScalarDB Server がデプロイされている AKS クラスターとは異なる環境にアプリケーションをデプロイする場合、Scalar Envoy にアクセスするには、`envoy.service.type` パラメーターを `LoadBalancer` に設定する必要があります。応用。 -ScalarDB Server の Helm Chart を使用して、AKS クラスターに ScalarDB Server をデプロイします。 詳細については、[Deploy Scalar Products using Scalar Helm Chart](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 +## ステップ6. Scalar Helm Chart を使用して ScalarDB Server をデプロイする + +ScalarDB Server の Helm Chart を使用して、AKS クラスターに ScalarDB Server をデプロイします。詳細については、[Deploy Scalar Products using Scalar Helm Chart](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 **注意:** `kubectl create ns scalardb` コマンドを使用して専用の名前空間を作成し、`helm install` コマンドで `-n scalardb` オプションを使用して名前空間に ScalarDB Server をデプロイすることをお勧めします。 -## ステップ 7. ScalarDB Server デプロイメントのステータスを確認する +## ステップ7. ScalarDB Server デプロイメントのステータスを確認する -ScalarDB Server を AKS クラスターにデプロイした後、各コンポーネントの状態を確認する必要があります。 詳細については、[Kubernetes環境で実行する場合に定期的に確認するコンポーネント](RegularCheck.mdx) を参照してください。 +ScalarDB Server を AKS クラスターにデプロイした後、各コンポーネントの状態を確認する必要があります。詳細については、[Kubernetes 環境で実行する場合に定期的に確認するコンポーネント](RegularCheck.mdx)を参照してください。 -## ステップ 8. ScalarDB Server の展開を監視する +## ステップ8. ScalarDB Server の展開を監視する -ScalarDB Server を AKS クラスターにデプロイした後、特に運用環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。 詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) および[Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx) を参照してください。 +ScalarDB Server を AKS クラスターにデプロイした後、特に運用環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx)および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx)を参照してください。 ## ScalarDB Server を AKS から削除します diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDBServerOnEKS.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDBServerOnEKS.mdx index ee9d3e25..92c7f178 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDBServerOnEKS.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDBServerOnEKS.mdx @@ -3,6 +3,7 @@ tags: - Enterprise Standard - Enterprise Premium - Deprecated +displayed_sidebar: docsJapanese --- # ScalarDB Server を Amazon Elastic Kubernetes Service (EKS) にデプロイする @@ -13,53 +14,53 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; このガイドでは、Amazon Elastic Kubernetes Service (EKS) に ScalarDB Server をデプロイする方法について説明します。 -このガイドでは、AWS 環境に次の 2 つの環境のいずれかを作成します。 2 つの環境の違いは、アプリケーションのデプロイをどのように計画するかです。 +このガイドでは、AWS 環境に次の2つの環境のいずれかを作成します。2つの環境の違いは、アプリケーションのデプロイをどのように計画するかです。 -* アプリケーションを ScalarDB Server デプロイメントと同じ EKS クラスターにデプロイします。 この場合、アプリケーションから Scalar Envoy にアクセスするために AWS が提供するロードバランサーを使用する必要はありません。 +* アプリケーションを ScalarDB Server デプロイメントと同じ EKS クラスターにデプロイします。この場合、アプリケーションから Scalar Envoy にアクセスするために AWS が提供するロードバランサーを使用する必要はありません。 - ![image](./images/png/EKS_ScalarDB_Server_App_In_Cluster.drawio.png) + ![image](./images/png/EKS_ScalarDB_Server_App_In_Cluster.drawio.png) -* ScalarDB Server デプロイメントを含む EKS クラスターとは異なる環境にアプリケーションをデプロイします。 この場合、アプリケーションから Scalar Envoy にアクセスするには、AWS が提供するロードバランサーを使用する必要があります。 +* ScalarDB Server デプロイメントを含む EKS クラスターとは異なる環境にアプリケーションをデプロイします。この場合、アプリケーションから Scalar Envoy にアクセスするには、AWS が提供するロードバランサーを使用する必要があります。 - ![image](./images/png/EKS_ScalarDB_Server_App_Out_Cluster.drawio.png) + ![image](./images/png/EKS_ScalarDB_Server_App_Out_Cluster.drawio.png) -## ステップ 1. AWS Marketplace で ScalarDB Server にサブスクライブする +## ステップ1. AWS Marketplace で ScalarDB Server にサブスクライブする -[AWS Marketplace](https://aws.amazon.com/marketplace/pp/prodview-rzbuhxgvqf4d2) にアクセスし、ScalarDB Server をサブスクライブして、ScalarDB Server コンテナ イメージを取得する必要があります。 AWS Marketplace で ScalarDB Server をサブスクライブする方法の詳細については、[AWS Marketplace から Scalar 製品を購読する](AwsMarketplaceGuide.mdx#aws-marketplace-から-scalar-製品を購読する) を参照してください。 +[AWS Marketplace](https://aws.amazon.com/marketplace/pp/prodview-rzbuhxgvqf4d2) にアクセスし、ScalarDB Server をサブスクライブして、ScalarDB Server コンテナイメージを取得する必要があります。AWS Marketplace で ScalarDB Server をサブスクライブする方法の詳細については、[AWS Marketplace から Scalar 製品を購読する](AwsMarketplaceGuide.mdx#aws-marketplace-から-scalar-製品を購読する)を参照してください。 -## ステップ 2. EKS クラスターを作成する +## ステップ2. EKS クラスターを作成する -ScalarDB Server デプロイメント用の EKS クラスターを作成する必要があります。 詳細については、[Scalar 製品用の Amazon EKS クラスターを作成するためのガイドライン](CreateEKSClusterForScalarProducts.mdx) を参照してください。 +ScalarDB Server デプロイメント用の EKS クラスターを作成する必要があります。詳細については、[Scalar 製品用の Amazon EKS クラスターを作成するためのガイドライン](CreateEKSClusterForScalarProducts.mdx) を参照してください。 -## ステップ 3. ScalarDB Server のデータベースをセットアップする +## ステップ3. ScalarDB Server のデータベースをセットアップする -ScalarDB Server を展開する前にデータベースを準備する必要があります。 ScalarDB がサポートするデータベースのタイプを確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 +ScalarDB Server を展開する前にデータベースを準備する必要があります。ScalarDB がサポートするデータベースのタイプを確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 -データベースのセットアップの詳細については、[AWS での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAWS.mdx) を参照してください。 +データベースのセットアップの詳細については、[AWS での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAWS.mdx)を参照してください。 -## ステップ 4. 要塞サーバーを作成する +## ステップ4. 踏み台サーバーを作成する -EKS 上で ScalarDB Server をデプロイおよび管理するためのいくつかのツールを実行するには、**ステップ 2** で作成した EKS クラスターの同じ Amazon Virtual Private Cloud (VPC) 内に要塞サーバーを準備する必要があります。 詳細については、[要塞サーバーの作成](CreateBastionServer.mdx) を参照してください。 +EKS 上で ScalarDB Server をデプロイおよび管理するためのいくつかのツールを実行するには、**ステップ2**で作成した EKS クラスターの同じ Amazon Virtual Private Cloud (VPC) 内に踏み台サーバーを準備する必要があります。詳細については、[踏み台サーバーの作成](CreateBastionServer.mdx)を参照してください。 -## ステップ 5. Scalar Helm Chartのカスタム値ファイルを準備する +## ステップ5. Scalar Helm Chartのカスタム値ファイルを準備する -**ステップ 3** で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDB Server の Scalar Helm Chartのカスタム値ファイルを構成する必要があります。 詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 +**ステップ3**で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDB Server の Scalar Helm Chartのカスタム値ファイルを構成する必要があります。詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 -**注意:** ScalarDB Server がデプロイされている EKS クラスターとは異なる環境にアプリケーションをデプロイする場合は、`envoy.service.type` パラメーターを `LoadBalancer` に設定して、ユーザーから Scalar Envoy にアクセスする必要があります。 応用。 +**注意:** ScalarDB Server がデプロイされている EKS クラスターとは異なる環境にアプリケーションをデプロイする場合は、`envoy.service.type` パラメーターを `LoadBalancer` に設定して、ユーザーから Scalar Envoy にアクセスする必要があります。応用。 -## ステップ 6. Scalar Helm Chart を使用して ScalarDB Server をデプロイする +## ステップ6. Scalar Helm Chart を使用して ScalarDB Server をデプロイする -ScalarDB Server の Helm Chart を使用して、ScalarDB Server を EKS クラスターにデプロイします。 詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 +ScalarDB Server の Helm Chart を使用して、ScalarDB Server を EKS クラスターにデプロイします。詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 **注意:** `kubectl create ns scalardb` コマンドを使用して専用の名前空間を作成し、`helm install` コマンドで `-n scalardb` オプションを使用して名前空間に ScalarDB Server をデプロイすることをお勧めします。 -## ステップ 7. ScalarDB Server デプロイメントのステータスを確認する +## ステップ7. ScalarDB Server デプロイメントのステータスを確認する -EKS クラスターに ScalarDB Server をデプロイした後、各コンポーネントのステータスを確認する必要があります。 詳細については、[Kubernetes環境で実行する場合に定期的に確認するコンポーネント](RegularCheck.mdx) を参照してください。 +EKS クラスターに ScalarDB Server をデプロイした後、各コンポーネントのステータスを確認する必要があります。詳細については、[Kubernetes環境で実行する場合に定期的に確認するコンポーネント](RegularCheck.mdx)を参照してください。 -## ステップ 8. ScalarDB Server の展開を監視する +## ステップ8. ScalarDB Server の展開を監視する -EKS クラスターに ScalarDB Server をデプロイした後、特に本番環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。 詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx) を参照してください。 +EKS クラスターに ScalarDB Server をデプロイした後、特に本番環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx)および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx)を参照してください。 ## ScalarDB Server を EKS から削除する diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDLAuditorOnAKS.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDLAuditorOnAKS.mdx index 3cba2672..936b1ad0 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDLAuditorOnAKS.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDLAuditorOnAKS.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsJapanese --- # ScalarDL Ledger と ScalarDL Auditor を Azure Kubernetes Service (AKS) にデプロイする @@ -9,93 +10,93 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; このガイドでは、Azure Kubernetes Service (AKS) に ScalarDL Ledger と ScalarDL Auditor をデプロイする方法について説明します。 -このガイドでは、Azure 環境に次の 3 つの環境のいずれかを作成します。 ビザンチン障害検出を適切に機能させるには、ScalarDL Ledger と ScalarDL Auditor を異なる管理ドメイン (つまり、別の環境) に展開することをお勧めします。 +このガイドでは、Azure 環境に次の3つの環境のいずれかを作成します。ビザンチン障害検出を適切に機能させるには、ScalarDL Ledger と ScalarDL Auditor を異なる管理ドメイン (つまり、別の環境) に展開することをお勧めします。 * 別の Azure アカウントを使用する (最も推奨される方法) ![image](./images/png/AKS_ScalarDL_Auditor_Multi_Account.drawio.png) -* 別の Azure Virtual Networks (VNet) を使用する (2 番目に推奨される方法) +* 別の Azure Virtual Networks (VNet) を使用する (2番目に推奨される方法) ![image](./images/png/AKS_ScalarDL_Auditor_Multi_VNet.drawio.png) -* 異なる名前空間を使用する (3 番目に推奨される方法) +* 異なる名前空間を使用する (3番目に推奨される方法) ![image](./images/png/AKS_ScalarDL_Auditor_Multi_Namespace.drawio.png) -**注意:** このガイドは、2 番目に推奨される方法「別の VNet を使用する」に従います。 +**注意:** このガイドは、2番目に推奨される方法「別の VNet を使用する」に従います。 -## ステップ 1. ScalarDL Ledger および ScalarDL Auditor コンテナー イメージを取得する +## ステップ1. ScalarDL Ledger および ScalarDL Auditor コンテナーイメージを取得する -ScalarDL Ledger および ScalarDL Auditor コンテナー イメージを取得する必要があります。 Scalar 製品のコンテナ リポジトリの詳細については、[Scalar 製品のコンテナ イメージを取得する方法](HowToGetContainerImages.mdx) を参照してください。 +ScalarDL Ledger および ScalarDL Auditor コンテナーイメージを取得する必要があります。Scalar 製品のコンテナリポジトリの詳細については、[Scalar 製品のコンテナイメージを取得する方法](HowToGetContainerImages.mdx)を参照してください。 -## ステップ 2. ScalarDL Ledger の AKS クラスターを作成する +## ステップ2. ScalarDL Ledger の AKS クラスターを作成する -ScalarDL Ledger デプロイ用の AKS クラスターを作成する必要があります。 詳細については、[Scalar 製品用の AKS クラスターを作成するためのガイドライン](CreateAKSClusterForScalarProducts.mdx) を参照してください。 +ScalarDL Ledger デプロイ用の AKS クラスターを作成する必要があります。詳細については、[Scalar 製品用の AKS クラスターを作成するためのガイドライン](CreateAKSClusterForScalarProducts.mdx)を参照してください。 -## ステップ 3. ScalarDL Auditor の AKS クラスターを作成する +## ステップ3. ScalarDL Auditor の AKS クラスターを作成する -ScalarDL Auditor デプロイ用の AKS クラスターも作成する必要があります。 詳細については、[Scalar 製品用の AKS クラスターを作成するためのガイドライン](CreateAKSClusterForScalarProducts.mdx) を参照してください。 +ScalarDL Auditor デプロイ用の AKS クラスターも作成する必要があります。詳細については、[Scalar 製品用の AKS クラスターを作成するためのガイドライン](CreateAKSClusterForScalarProducts.mdx)を参照してください。 -## ステップ 4. ScalarDL Ledger のデータベースをセットアップする +## ステップ4. ScalarDL Ledger のデータベースをセットアップする -ScalarDL Ledger を展開する前にデータベースを準備する必要があります。 ScalarDL Ledger は内部で ScalarDB を使用してデータベースにアクセスするため、ScalarDB がサポートするデータベースの種類を確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 +ScalarDL Ledger を展開する前にデータベースを準備する必要があります。ScalarDL Ledger は内部で ScalarDB を使用してデータベースにアクセスするため、ScalarDB がサポートするデータベースの種類を確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 -データベースのセットアップの詳細については、[Azure での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAzure.mdx) を参照してください。 +データベースのセットアップの詳細については、[Azure での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAzure.mdx)を参照してください。 -## ステップ 5. ScalarDL Auditor のデータベースをセットアップする +## ステップ5. ScalarDL Auditor のデータベースをセットアップする -ScalarDL Auditor を展開する前にデータベースを準備する必要もあります。 ScalarDL Auditor は内部で ScalarDB を使用してデータベースにアクセスするため、ScalarDB がサポートするデータベースの種類を確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 +ScalarDL Auditor を展開する前にデータベースを準備する必要もあります。ScalarDL Auditor は内部で ScalarDB を使用してデータベースにアクセスするため、ScalarDB がサポートするデータベースの種類を確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 -データベースのセットアップの詳細については、[Azure での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAzure.mdx) を参照してください。 +データベースのセットアップの詳細については、[Azure での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAzure.mdx)を参照してください。 -## ステップ 6. ScalarDL Ledger の要塞サーバーを作成する +## ステップ6. ScalarDL Ledger の踏み台サーバーを作成する -AKS で ScalarDL Ledger をデプロイおよび管理するためのいくつかのツールを実行するには、**手順 2** で作成した AKS クラスターの同じ VNet に要塞サーバーを準備する必要があります。 詳細については、[要塞サーバーの作成](CreateBastionServer.mdx) を参照してください。 +AKS で ScalarDL Ledger をデプロイおよび管理するためのいくつかのツールを実行するには、**手順2**で作成した AKS クラスターの同じ VNet に踏み台サーバーを準備する必要があります。詳細については、[踏み台サーバーの作成](CreateBastionServer.mdx)を参照してください。 -## ステップ 7. ScalarDL Auditor の要塞サーバーを作成する +## ステップ7. ScalarDL Auditor の踏み台サーバーを作成する -AKS で ScalarDL Auditor をデプロイおよび管理するためのいくつかのツールを実行するには、**手順 3** で作成した AKS クラスターの同じ VNet に要塞サーバーを準備する必要があります。 詳細については、[要塞サーバーの作成](CreateBastionServer.mdx) を参照してください。 +AKS で ScalarDL Auditor をデプロイおよび管理するためのいくつかのツールを実行するには、**手順3**で作成した AKS クラスターの同じ VNet に踏み台サーバーを準備する必要があります。詳細については、[踏み台サーバーの作成](CreateBastionServer.mdx)を参照してください。 -## ステップ 8. 2 つの AKS クラスター間のネットワーク ピアリングを作成する +## ステップ8. 2つの AKS クラスター間のネットワークピアリングを作成する -ScalarDL を適切に動作させるには、ScalarDL Ledger と ScalarDL Auditor が相互に接続する必要があります。 [仮想ネットワーク ピアリング](https://docs.microsoft.com/en-us/azure/virtual-network/virtual-network-peering-overview) を使用して 2 つの VNet を接続する必要があります。 詳細については、[ScalarDL Auditor モードのネットワーク ピアリングの構成](NetworkPeeringForScalarDLAuditor.mdx) を参照してください。 +ScalarDL を適切に動作させるには、ScalarDL Ledger と ScalarDL Auditor が相互に接続する必要があります。[仮想ネットワークピアリング](https://docs.microsoft.com/en-us/azure/virtual-network/virtual-network-peering-overview)を使用して2つの VNet を接続する必要があります。詳細については、[ScalarDL Auditor モードのネットワークピアリングの構成](NetworkPeeringForScalarDLAuditor.mdx)を参照してください。 -## ステップ 9. ScalarDL Ledger と ScalarDL Schema Loader の両方の Scalar Helm Chart のカスタム値ファイルを準備する +## ステップ9. ScalarDL Ledger と ScalarDL Schema Loader の両方の Scalar Helm Chart のカスタム値ファイルを準備する -**ステップ 4** で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDL Ledger と ScalarDL Schema Loader (Ledger 用) の両方の Scalar Helm Chart のカスタム値ファイルを構成する必要があります。 詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx を参照してください。 +**ステップ4**で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDL Ledger と ScalarDL Schema Loader (Ledger 用) の両方の Scalar Helm Chart のカスタム値ファイルを構成する必要があります。詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx を参照してください。 -## ステップ 10. Scalar Helm Chart を使用して ScalarDL Ledger をデプロイする +## ステップ10. Scalar Helm Chart を使用して ScalarDL Ledger をデプロイする -ScalarDL Ledger の Helm Chart を使用して、ScalarDL Ledger を AKS クラスターにデプロイします。 詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 +ScalarDL Ledger の Helm Chart を使用して、ScalarDL Ledger を AKS クラスターにデプロイします。詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 **注意:** `kubectl create ns scalardl-ledger` コマンドを使用して専用の名前空間を作成し、`helm install` コマンドで `-n scalardl-ledger` オプションを使用して名前空間に ScalarDL Ledger をデプロイすることをお勧めします。 -## ステップ 11. ScalarDL Auditor と ScalarDL Schema Loader の両方の Scalar Helm Chart のカスタム値ファイルを準備する +## ステップ11. ScalarDL Auditor と ScalarDL Schema Loader の両方の Scalar Helm Chart のカスタム値ファイルを準備する -**ステップ 5** で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDL Auditor と ScalarDL Schema Loader (Auditor 用) の両方の Scalar Helm Chart のカスタム値ファイルを構成する必要もあります 。 詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 +**ステップ5**で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDL Auditor と ScalarDL Schema Loader (Auditor 用) の両方の Scalar Helm Chart のカスタム値ファイルを構成する必要もあります 。詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 -## ステップ 12. Scalar Helm Chart を使用して ScalarDL Auditor をデプロイする +## ステップ12. Scalar Helm Chart を使用して ScalarDL Auditor をデプロイする -ScalarDL Auditor の Helm Chart を使用して、AKS クラスターに ScalarDL Auditor をデプロイします。 詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 +ScalarDL Auditor の Helm Chart を使用して、AKS クラスターに ScalarDL Auditor をデプロイします。詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 **注意:** `kubectl create ns scalardl-auditor` コマンドを使用して専用の名前空間を作成し、`helm install` コマンドで `-n scalardl-auditor` オプションを使用して名前空間に ScalarDL Auditor をデプロイすることをお勧めします。 -## ステップ 13. ScalarDL Ledger 導入のステータスを確認する +## ステップ13. ScalarDL Ledger 導入のステータスを確認する -ScalarDL Ledger を AKS クラスターにデプロイした後、各コンポーネントの状態を確認する必要があります。 詳細については、[Kubernetes環境で実行する場合に定期的に確認するコンポーネント](RegularCheck.mdx) を参照してください。 +ScalarDL Ledger を AKS クラスターにデプロイした後、各コンポーネントの状態を確認する必要があります。詳細については、[Kubernetes環境で実行する場合に定期的に確認するコンポーネント](RegularCheck.mdx)を参照してください。 -## ステップ 14. ScalarDL Auditor デプロイメントのステータスを確認する +## ステップ14. ScalarDL Auditor デプロイメントのステータスを確認する -ScalarDL Auditor を AKS クラスターにデプロイした後、各コンポーネントの状態を確認する必要があります。 詳細については、[Kubernetes環境で実行する場合に定期的に確認するコンポーネント](RegularCheck.mdx) を参照してください。 +ScalarDL Auditor を AKS クラスターにデプロイした後、各コンポーネントの状態を確認する必要があります。詳細については、[Kubernetes環境で実行する場合に定期的に確認するコンポーネント](RegularCheck.mdx)を参照してください。 -## ステップ 15. ScalarDL Ledger の展開を監視する +## ステップ15. ScalarDL Ledger の展開を監視する -AKS クラスターに ScalarDL Ledger をデプロイした後、特に運用環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。 詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx) を参照してください。 +AKS クラスターに ScalarDL Ledger をデプロイした後、特に運用環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx)および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx)を参照してください。 -## ステップ 16. ScalarDL Auditor の展開を監視する +## ステップ16. ScalarDL Auditor の展開を監視する -AKS クラスターに ScalarDL Auditor をデプロイした後、特に運用環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。 詳細については、[Kubernetes クラスター上の Scalar 製品の監視(./K8sMonitorGuide.mdx) および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx) を参照してください。 +AKS クラスターに ScalarDL Auditor をデプロイした後、特に運用環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。詳細については、[Kubernetes クラスター上の Scalar 製品の監視](./K8sMonitorGuide.mdx)および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx)を参照してください。 ## ScalarDL Ledger と ScalarDL Auditor を AKS から削除します diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDLAuditorOnEKS.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDLAuditorOnEKS.mdx index b49bd983..bba0b37d 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDLAuditorOnEKS.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDLAuditorOnEKS.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsJapanese --- # ScalarDL Ledger と ScalarDL Auditor を Amazon Elastic Kubernetes Service (EKS) にデプロイする @@ -9,93 +10,93 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; このガイドでは、ScalarDL Ledger と ScalarDL Auditor を Amazon Elastic Kubernetes Service (EKS) にデプロイする方法について説明します。 -このガイドでは、AWS 環境に次の 3 つの環境のいずれかを作成します。 ビザンチン障害検出を適切に機能させるには、ScalarDL Ledger と ScalarDL Auditor を異なる管理ドメイン (つまり、別の環境) に展開することをお勧めします。 +このガイドでは、AWS 環境に次の3つの環境のいずれかを作成します。ビザンチン障害検出を適切に機能させるには、ScalarDL Ledger と ScalarDL Auditor を異なる管理ドメイン (つまり、別の環境) に展開することをお勧めします。 * 別の AWS アカウントを使用する (最も推奨される方法) ![image](./images/png/EKS_ScalarDL_Auditor_Multi_Account.drawio.png) -* 異なる Amazon Virtual Private Cloud (VPC) を使用する (2 番目に推奨される方法) +* 異なる Amazon Virtual Private Cloud (VPC) を使用する (2番目に推奨される方法) ![image](./images/png/EKS_ScalarDL_Auditor_Multi_VPC.drawio.png) -* 異なる名前空間を使用する (3 番目に推奨される方法) +* 異なる名前空間を使用する (3番目に推奨される方法) ![image](./images/png/EKS_ScalarDL_Auditor_Multi_Namespace.drawio.png) -**注記:** このガイドは、2 番目に推奨される方法「別の VPC を使用する」に従います。 +**注記:** このガイドは、2番目に推奨される方法「別の VPC を使用する」に従います。 -## ステップ 1. AWS Marketplace で ScalarDL Ledger と ScalarDL Auditor を購読する +## ステップ1. AWS Marketplace で ScalarDL Ledger と ScalarDL Auditor を購読する -[AWS Marketplace](https://aws.amazon.com/marketplace/seller-profile?id=bd4cd7de-49cd-433f-97ba-5cf71d76ec7b) から ScalarDL Ledger および ScalarDL Auditor コンテナ イメージを取得し、ScalarDL Ledger および ScalarDL Auditor をサブスクライブする必要があります。 AWS Marketplace で ScalarDL Ledger および ScalarDL Auditor を購読する方法の詳細については、[AWS Marketplace から Scalar 製品を購読する](AwsMarketplaceGuide.mdx#aws-marketplace-から-scalar-製品を購読する) を参照してください。 +[AWS Marketplace](https://aws.amazon.com/marketplace/seller-profile?id=bd4cd7de-49cd-433f-97ba-5cf71d76ec7b) から ScalarDL Ledger および ScalarDL Auditor コンテナイメージを取得し、ScalarDL Ledger および ScalarDL Auditor をサブスクライブする必要があります。AWS Marketplace で ScalarDL Ledger および ScalarDL Auditor を購読する方法の詳細については、[AWS Marketplace から Scalar 製品を購読する](AwsMarketplaceGuide.mdx#aws-marketplace-から-scalar-製品を購読する)を参照してください。 -## ステップ 2. ScalarDL Ledger の EKS クラスターを作成する +## ステップ2. ScalarDL Ledger の EKS クラスターを作成する -ScalarDL Ledger デプロイメント用の EKS クラスターを作成する必要があります。 詳細については、[Scalar 製品用の Amazon EKS クラスターを作成するためのガイドライン](CreateEKSClusterForScalarProducts.mdx) を参照してください。 +ScalarDL Ledger デプロイメント用の EKS クラスターを作成する必要があります。詳細については、[Scalar 製品用の Amazon EKS クラスターを作成するためのガイドライン](CreateEKSClusterForScalarProducts.mdx)を参照してください。 -## ステップ 3. ScalarDL Auditor 用の EKS クラスターを作成する +## ステップ3. ScalarDL Auditor 用の EKS クラスターを作成する -ScalarDL Auditor デプロイメント用の EKS クラスターも作成する必要があります。 詳細については、[Scalar 製品用の Amazon EKS クラスターを作成するためのガイドライン](CreateEKSClusterForScalarProducts.mdx) を参照してください。 +ScalarDL Auditor デプロイメント用の EKS クラスターも作成する必要があります。詳細については、[Scalar 製品用の Amazon EKS クラスターを作成するためのガイドライン](CreateEKSClusterForScalarProducts.mdx)を参照してください。 -## ステップ 4. ScalarDL Ledger のデータベースをセットアップする +## ステップ4. ScalarDL Ledger のデータベースをセットアップする -ScalarDL Ledger を展開する前にデータベースを準備する必要があります。 ScalarDL Ledger は内部で ScalarDB を使用してデータベースにアクセスするため、ScalarDB がサポートするデータベースの種類を確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 +ScalarDL Ledger を展開する前にデータベースを準備する必要があります。ScalarDL Ledger は内部で ScalarDB を使用してデータベースにアクセスするため、ScalarDB がサポートするデータベースの種類を確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 -データベースのセットアップの詳細については、[AWS での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAWS.mdx) を参照してください。 +データベースのセットアップの詳細については、[AWS での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAWS.mdx)を参照してください。 -## ステップ 5. ScalarDL Auditor のデータベースをセットアップする +## ステップ5. ScalarDL Auditor のデータベースをセットアップする -ScalarDL Auditor を展開する前にデータベースを準備する必要もあります。 ScalarDL Auditor は内部で ScalarDB を使用してデータベースにアクセスするため、ScalarDB がサポートするデータベースの種類を確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 +ScalarDL Auditor を展開する前にデータベースを準備する必要もあります。ScalarDL Auditor は内部で ScalarDB を使用してデータベースにアクセスするため、ScalarDB がサポートするデータベースの種類を確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 -データベースのセットアップの詳細については、[AWS での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAWS.mdx) を参照してください。 +データベースのセットアップの詳細については、[AWS での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAWS.mdx)を参照してください。 -## ステップ 6. ScalarDL Ledger の要塞サーバーを作成する +## ステップ6. ScalarDL Ledger の踏み台サーバーを作成する -EKS 上で ScalarDL Ledger をデプロイおよび管理するためのいくつかのツールを実行するには、**ステップ 2** で作成した EKS クラスターの同じ VPC 内に要塞サーバーを準備する必要があります。 詳細については、[要塞サーバーの作成](CreateBastionServer.mdx) を参照してください。 +EKS 上で ScalarDL Ledger をデプロイおよび管理するためのいくつかのツールを実行するには、**ステップ2**で作成した EKS クラスターの同じ VPC 内に踏み台サーバーを準備する必要があります。詳細については、[踏み台サーバーの作成](CreateBastionServer.mdx)を参照してください。 -## ステップ 7. ScalarDL Auditor の要塞サーバーを作成する +## ステップ7. ScalarDL Auditor の踏み台サーバーを作成する -EKS 上で ScalarDL Auditor をデプロイおよび管理するためのいくつかのツールを実行するには、**ステップ 3** で作成した EKS クラスターの同じ VPC 内に要塞サーバーを準備する必要があります。 詳細については、[要塞サーバーの作成](CreateBastionServer.mdx) を参照してください。 +EKS 上で ScalarDL Auditor をデプロイおよび管理するためのいくつかのツールを実行するには、**ステップ3**で作成した EKS クラスターの同じ VPC 内に踏み台サーバーを準備する必要があります。詳細については、[踏み台サーバーの作成](CreateBastionServer.mdx)を参照してください。 -## ステップ 8. 2 つの EKS クラスター間のネットワーク ピアリングを作成する +## ステップ8. 2つの EKS クラスター間のネットワークピアリングを作成する -ScalarDL を適切に動作させるには、ScalarDL Ledger と ScalarDL Auditor が相互に接続する必要があります。 [VPC peering](https://docs.aws.amazon.com/vpc/latest/peering/create-vpc-peering-connection.html) を使用して 2 つの VPC を接続する必要があります。 詳細については、[ScalarDL Auditor モードのネットワーク ピアリングの構成](NetworkPeeringForScalarDLAuditor.mdx) を参照してください。 +ScalarDL を適切に動作させるには、ScalarDL Ledger と ScalarDL Auditor が相互に接続する必要があります。[VPC peering](https://docs.aws.amazon.com/vpc/latest/peering/create-vpc-peering-connection.html) を使用して2つの VPC を接続する必要があります。詳細については、[ScalarDL Auditor モードのネットワークピアリングの構成](NetworkPeeringForScalarDLAuditor.mdx)を参照してください。 -## ステップ 9. ScalarDL Ledger および ScalarDL Schema Loader の Scalar Helm Chart のカスタム値ファイルを準備する +## ステップ9. ScalarDL Ledger および ScalarDL Schema Loader の Scalar Helm Chart のカスタム値ファイルを準備する -**ステップ 4** で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDL Ledger および ScalarDL Schema Loader (Ledger 用) の Scalar Helm Chart のカスタム値ファイルを構成する必要があります。 詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 +**ステップ4**で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDL Ledger および ScalarDL Schema Loader (Ledger 用) の Scalar Helm Chart のカスタム値ファイルを構成する必要があります。詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 -## ステップ 10. Scalar Helm Chart を使用して ScalarDL Ledger をデプロイする +## ステップ10. Scalar Helm Chart を使用して ScalarDL Ledger をデプロイする -ScalarDL Ledger の Helm Chart を使用して、ScalarDL Ledger を EKS クラスターにデプロイします。 詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 +ScalarDL Ledger の Helm Chart を使用して、ScalarDL Ledger を EKS クラスターにデプロイします。詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 **注記:** `kubectl create ns scalardl-ledger` コマンドを使用して専用の名前空間を作成し、`helm install` コマンドで `-n scalardl-ledger` オプションを使用して名前空間に ScalarDL Ledger をデプロイすることをお勧めします。 -## ステップ 11. ScalarDL Auditor と ScalarDL Schema Loader の両方の Scalar Helm Chart のカスタム値ファイルを準備する +## ステップ11. ScalarDL Auditor と ScalarDL Schema Loader の両方の Scalar Helm Chart のカスタム値ファイルを準備する -**ステップ 5** で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDL Auditor と ScalarDL Schema Loader (Auditor 用) の両方の Scalar Helm Chart のカスタム値ファイルを構成する必要があります。 詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 +**ステップ5**で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDL Auditor と ScalarDL Schema Loader (Auditor 用) の両方の Scalar Helm Chart のカスタム値ファイルを構成する必要があります。詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 -## ステップ 12. Scalar Helm Chart を使用して ScalarDL Auditor をデプロイする +## ステップ12. Scalar Helm Chart を使用して ScalarDL Auditor をデプロイする -ScalarDL Auditor の Helm Chart を使用して、ScalarDL Auditor を EKS クラスターにデプロイします。 詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 +ScalarDL Auditor の Helm Chart を使用して、ScalarDL Auditor を EKS クラスターにデプロイします。詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 **注記:** `kubectl create ns scalardl-auditor` コマンドを使用して専用の名前空間を作成し、`helm install` コマンドで `-n scalardl-auditor` オプションを使用して名前空間に ScalarDL Auditor をデプロイすることをお勧めします。 -## ステップ 13. ScalarDL Ledger 導入のステータスを確認する +## ステップ13. ScalarDL Ledger 導入のステータスを確認する -EKS クラスターに ScalarDL Ledger をデプロイした後、各コンポーネントのステータスを確認する必要があります。 詳細については、[Kubernetes環境で実行する場合に定期的に確認するコンポーネント](RegularCheck.mdx) を参照してください。 +EKS クラスターに ScalarDL Ledger をデプロイした後、各コンポーネントのステータスを確認する必要があります。詳細については、[Kubernetes環境で実行する場合に定期的に確認するコンポーネント](RegularCheck.mdx)を参照してください。 -## ステップ 14. ScalarDL Auditor デプロイメントのステータスを確認する +## ステップ14. ScalarDL Auditor デプロイメントのステータスを確認する -EKS クラスターに ScalarDL Auditor をデプロイした後、各コンポーネントのステータスを確認する必要があります。 詳細については、[Kubernetes 環境で実行するときに定期的に確認するコンポーネント](RegularCheck.mdx) を参照してください。 +EKS クラスターに ScalarDL Auditor をデプロイした後、各コンポーネントのステータスを確認する必要があります。詳細については、[Kubernetes 環境で実行するときに定期的に確認するコンポーネント](RegularCheck.mdx)を参照してください。 -## ステップ 15. ScalarDL Ledger の展開を監視する +## ステップ15. ScalarDL Ledger の展開を監視する -EKS クラスターに ScalarDL Ledger をデプロイした後、特に本番環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。 詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx) を参照してください。 +EKS クラスターに ScalarDL Ledger をデプロイした後、特に本番環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx)および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx)を参照してください。 -## ステップ 16. ScalarDL Auditor の展開を監視する +## ステップ16. ScalarDL Auditor の展開を監視する -EKS クラスターに ScalarDL Auditor をデプロイした後、特に運用環境で、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。 詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx) を参照してください。 +EKS クラスターに ScalarDL Auditor をデプロイした後、特に運用環境で、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx)および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx)を参照してください。 ## EKS から ScalarDL Ledger と ScalarDL Auditor を削除 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDLOnAKS.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDLOnAKS.mdx index 06762f9b..4742c5f5 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDLOnAKS.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDLOnAKS.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsJapanese --- # Azure Kubernetes Service (AKS) に ScalarDL Ledger をデプロイする @@ -13,41 +14,41 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; ![image](./images/png/AKS_ScalarDL_Ledger.drawio.png) -## ステップ 1. ScalarDL Ledger コンテナー イメージを取得する +## ステップ1. ScalarDL Ledger コンテナーイメージを取得する -ScalarDL Ledger コンテナー イメージを取得する必要があります。 Scalar 製品のコンテナ リポジトリの詳細については、[Scalar 製品のコンテナ イメージを取得する方法](HowToGetContainerImages.mdx) を参照してください。 +ScalarDL Ledger コンテナーイメージを取得する必要があります。Scalar 製品のコンテナリポジトリの詳細については、[Scalar 製品のコンテナイメージを取得する方法](HowToGetContainerImages.mdx)を参照してください。 -## ステップ 2. AKS クラスターを作成する +## ステップ2. AKS クラスターを作成する -ScalarDL Ledger デプロイ用の AKS クラスターを作成する必要があります。 詳細については、[Scalar 製品用の AKS クラスターを作成するためのガイドライン](CreateAKSClusterForScalarProducts.mdx) を参照してください。 +ScalarDL Ledger デプロイ用の AKS クラスターを作成する必要があります。詳細については、[Scalar 製品用の AKS クラスターを作成するためのガイドライン](CreateAKSClusterForScalarProducts.mdx)を参照してください。 -## ステップ 3. ScalarDL Ledger のデータベースをセットアップする +## ステップ3. ScalarDL Ledger のデータベースをセットアップする -ScalarDL Ledger を展開する前にデータベースを準備する必要があります。 ScalarDL Ledger は内部で ScalarDB を使用してデータベースにアクセスするため、ScalarDB がサポートするデータベースの種類を確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 +ScalarDL Ledger を展開する前にデータベースを準備する必要があります。ScalarDL Ledger は内部で ScalarDB を使用してデータベースにアクセスするため、ScalarDB がサポートするデータベースの種類を確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 データベースのセットアップの詳細については、[Azure での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAzure.mdx) を参照してください。 -## ステップ 4. 要塞サーバーを作成する +## ステップ4. 踏み台サーバーを作成する -AKS で ScalarDL Ledger をデプロイおよび管理するためのいくつかのツールを実行するには、**手順 2** で作成した AKS クラスターの同じ Azure Virtual Network (VNet) 内に要塞サーバーを準備する必要があります。 詳細については、[要塞サーバーの作成](CreateBastionServer.mdx) を参照してください。 +AKS で ScalarDL Ledger をデプロイおよび管理するためのいくつかのツールを実行するには、**手順2**で作成した AKS クラスターの同じ Azure Virtual Network (VNet) 内に踏み台サーバーを準備する必要があります。詳細については、[踏み台サーバーの作成](CreateBastionServer.mdx)を参照してください。 -## ステップ 5. ScalarDL Ledger と ScalarDL Schema Loader の両方の Scalar Helm Chart のカスタム値ファイルを準備する +## ステップ5. ScalarDL Ledger と ScalarDL Schema Loader の両方の Scalar Helm Chart のカスタム値ファイルを準備する -**ステップ 3** で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDL Ledger と ScalarDL Schema Loader (Ledger 用) の両方の Scalar Helm Chart のカスタム値ファイルを構成する必要があります。 詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 +**ステップ3**で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDL Ledger と ScalarDL Schema Loader (Ledger 用) の両方の Scalar Helm Chart のカスタム値ファイルを構成する必要があります。詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 -## ステップ 6. Scalar Helm Chart を使用して ScalarDL Ledger をデプロイする +## ステップ6. Scalar Helm Chart を使用して ScalarDL Ledger をデプロイする -ScalarDL Ledger の Helm Chart を使用して、AKS クラスターに ScalarDL Ledger をデプロイします。 詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 +ScalarDL Ledger の Helm Chart を使用して、AKS クラスターに ScalarDL Ledger をデプロイします。詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 **注記:** `kubectl create ns scalardl-ledger` コマンドを使用して専用の名前空間を作成し、`helm install` コマンドで `-n scalardl-ledger` オプションを使用して名前空間に ScalarDL Ledger をデプロイすることをお勧めします。 -## ステップ 7. ScalarDL Ledger 導入のステータスを確認する +## ステップ7. ScalarDL Ledger 導入のステータスを確認する -ScalarDL Ledger を AKS クラスターにデプロイした後、各コンポーネントの状態を確認する必要があります。 詳細については、[Kubernetes環境で実行する場合に定期的に確認するコンポーネント](RegularCheck.mdx) を参照してください。 +ScalarDL Ledger を AKS クラスターにデプロイした後、各コンポーネントの状態を確認する必要があります。詳細については、[Kubernetes環境で実行する場合に定期的に確認するコンポーネント](RegularCheck.mdx)を参照してください。 -## ステップ 8. ScalarDL Ledger の展開を監視する +## ステップ8. ScalarDL Ledger の展開を監視する -AKS クラスターに ScalarDL Ledger をデプロイした後、特に運用環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。 詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx) を参照してください。 +AKS クラスターに ScalarDL Ledger をデプロイした後、特に運用環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx)および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx)を参照してください。 ## ScalarDL Ledger を AKS から削除する diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDLOnEKS.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDLOnEKS.mdx index 37f1c047..6891f2ac 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDLOnEKS.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ManualDeploymentGuideScalarDLOnEKS.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsJapanese --- # ScalarDL Ledger を Amazon Elastic Kubernetes Service (EKS) にデプロイする @@ -13,41 +14,41 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; ![image](./images/png/EKS_ScalarDL_Ledger.drawio.png) -## ステップ 1. AWS Marketplace で ScalarDL Ledger を購読する +## ステップ1. AWS Marketplace で ScalarDL Ledger を購読する -[AWS Marketplace](https://aws.amazon.com/marketplace/pp/prodview-3jdwfmqonx7a2) から ScalarDL Ledger コンテナ イメージを取得し、ScalarDL にサブスクライブする必要があります。 AWS Marketplace で ScalarDL Ledger を購読する方法の詳細については、[AWS Marketplace から Scalar 製品を購読する](AwsMarketplaceGuide.mdx#aws-marketplace-から-scalar-製品を購読する) を参照してください。 +[AWS Marketplace](https://aws.amazon.com/marketplace/pp/prodview-3jdwfmqonx7a2) から ScalarDL Ledger コンテナイメージを取得し、ScalarDL にサブスクライブする必要があります。AWS Marketplace で ScalarDL Ledger を購読する方法の詳細については、[AWS Marketplace から Scalar 製品を購読する](AwsMarketplaceGuide.mdx#aws-marketplace-から-scalar-製品を購読する)を参照してください。 -## ステップ 2. EKS クラスターを作成する +## ステップ2. EKS クラスターを作成する -ScalarDL Ledger デプロイメント用の EKS クラスターを作成する必要があります。 詳細については、[Scalar 製品用の Amazon EKS クラスターを作成するためのガイドライン](CreateEKSClusterForScalarProducts.mdx) を参照してください。 +ScalarDL Ledger デプロイメント用の EKS クラスターを作成する必要があります。詳細については、[Scalar 製品用の Amazon EKS クラスターを作成するためのガイドライン](CreateEKSClusterForScalarProducts.mdx)を参照してください。 -## ステップ 3. ScalarDL Ledger のデータベースをセットアップする +## ステップ3. ScalarDL Ledger のデータベースをセットアップする -ScalarDL Ledger を展開する前にデータベースを準備する必要があります。 ScalarDL Ledger は内部で ScalarDB を使用してデータベースにアクセスするため、ScalarDB がサポートするデータベースの種類を確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 +ScalarDL Ledger を展開する前にデータベースを準備する必要があります。ScalarDL Ledger は内部で ScalarDB を使用してデータベースにアクセスするため、ScalarDB がサポートするデータベースの種類を確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 -データベースのセットアップの詳細については、[AWS での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAWS.mdx) を参照してください。 +データベースのセットアップの詳細については、[AWS での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAWS.mdx)を参照してください。 -## ステップ 4. 要塞サーバーを作成する +## ステップ4. 踏み台サーバーを作成する -EKS で ScalarDL Ledger をデプロイおよび管理するためのいくつかのツールを実行するには、**ステップ 2** で作成した EKS クラスターの同じ Amazon Virtual Private Cloud (VPC) 内に要塞サーバーを準備する必要があります。 詳細については、[要塞サーバーの作成](CreateBastionServer.mdx) を参照してください。 +EKS で ScalarDL Ledger をデプロイおよび管理するためのいくつかのツールを実行するには、**ステップ2**で作成した EKS クラスターの同じ Amazon Virtual Private Cloud (VPC) 内に踏み台サーバーを準備する必要があります。詳細については、[踏み台サーバーの作成](CreateBastionServer.mdx)を参照してください。 -## ステップ 5. ScalarDL Ledger と ScalarDL Schema Loader の両方の Scalar Helm Chart のカスタム値ファイルを準備する +## ステップ5. ScalarDL Ledger と ScalarDL Schema Loader の両方の Scalar Helm Chart のカスタム値ファイルを準備する -**ステップ 3** で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDL Ledger と ScalarDL Schema Loader (Ledger 用) の両方の Scalar Helm Chart のカスタム値ファイルを構成する必要があります。 詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 +**ステップ3**で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDL Ledger と ScalarDL Schema Loader (Ledger 用) の両方の Scalar Helm Chart のカスタム値ファイルを構成する必要があります。詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 -## ステップ 6. Scalar Helm Chart を使用して ScalarDL Ledger をデプロイする +## ステップ6. Scalar Helm Chart を使用して ScalarDL Ledger をデプロイする -ScalarDL Ledger の Helm Chart を使用して、ScalarDL Ledger を EKS クラスターにデプロイします。 詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 +ScalarDL Ledger の Helm Chart を使用して、ScalarDL Ledger を EKS クラスターにデプロイします。詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 **注記:** `kubectl create ns scalardl-ledger` コマンドを使用して専用の名前空間を作成し、`helm install` コマンドで `-n scalardl-ledger` オプションを使用して名前空間に ScalarDL Ledger をデプロイすることをお勧めします。 -## ステップ 7. ScalarDL Ledger 導入のステータスを確認する +## ステップ7. ScalarDL Ledger 導入のステータスを確認する -EKS クラスターに ScalarDL Ledger をデプロイした後、各コンポーネントのステータスを確認する必要があります。 詳細については、[Kubernetes環境で実行する場合に定期的に確認するコンポーネント](RegularCheck.mdx) を参照してください。 +EKS クラスターに ScalarDL Ledger をデプロイした後、各コンポーネントのステータスを確認する必要があります。詳細については、[Kubernetes環境で実行する場合に定期的に確認するコンポーネント](RegularCheck.mdx)を参照してください。 -## ステップ 8. ScalarDL Ledger の展開を監視する +## ステップ8. ScalarDL Ledger の展開を監視する -EKS クラスターに ScalarDL Ledger をデプロイした後、特に本番環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。 詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx) を参照してください。 +EKS クラスターに ScalarDL Ledger をデプロイした後、特に本番環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx)および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx)を参照してください。 ## EKS から ScalarDL Ledger を削除 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/NetworkPeeringForScalarDLAuditor.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/NetworkPeeringForScalarDLAuditor.mdx index 1a6f1144..c125e201 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/NetworkPeeringForScalarDLAuditor.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/NetworkPeeringForScalarDLAuditor.mdx @@ -1,17 +1,18 @@ --- +displayed_sidebar: docsJapanese --- -# ScalarDL Auditor モード用にネットワーク ピアリングを構成する +# ScalarDL Auditor モード用にネットワークピアリングを構成する import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、ScalarDL Auditor モードで複数のプライベート ネットワークを接続し、ネットワーク ピアリングを実行する方法について説明します。 ScalarDL Auditor モードが正しく動作するには、ScalarDL Ledger を ScalarDL Auditor に接続する必要があります。 +このドキュメントでは、ScalarDL Auditor モードで複数のプライベートネットワークを接続し、ネットワークピアリングを実行する方法について説明します。ScalarDL Auditor モードが正しく動作するには、ScalarDL Ledger を ScalarDL Auditor に接続する必要があります。 ## 接続する必要があるネットワーク -ScalarDL Auditor モード (ビザンチン障害検出) を正しく機能させるには、3 つのプライベート ネットワークを接続する必要があります。 +ScalarDL Auditor モード (ビザンチン障害検出) を正しく機能させるには、3つのプライベートネットワークを接続する必要があります。 * [ScalarDL Ledger ネットワーク] ↔ [ScalarDL Auditor ネットワーク] * [ScalarDL Ledger ネットワーク] ↔ [アプリケーション(クライアント)ネットワーク] @@ -21,15 +22,15 @@ ScalarDL Auditor モード (ビザンチン障害検出) を正しく機能さ ### IP アドレス範囲 -プライベート ネットワーク間で IP アドレスが競合しないようにするには、異なる IP アドレス範囲を持つプライベート ネットワークが必要です。 例えば: +プライベートネットワーク間で IP アドレスが競合しないようにするには、異なる IP アドレス範囲を持つプライベートネットワークが必要です。例えば: -* **ScalarDL Ledger のプライベート ネットワーク:** 10.1.0.0/16 -* **ScalarDL Auditor のプライベート ネットワーク:** 10.2.0.0/16 -* **アプリケーション (クライアント) のプライベート ネットワーク:** 10.3.0.0/16 +* **ScalarDL Ledger のプライベートネットワーク:** 10.1.0.0/16 +* **ScalarDL Auditor のプライベートネットワーク:** 10.2.0.0/16 +* **アプリケーション (クライアント) のプライベートネットワーク:** 10.3.0.0/16 ### 接続 -ScalarDL Ledger、ScalarDL Auditor、およびアプリケーション(クライアント)を接続するためのデフォルトのネットワークポートは、デフォルトでは次のとおりです。 各プライベート ネットワーク間でこれらの接続を許可する必要があります。 +ScalarDL Ledger、ScalarDL Auditor、およびアプリケーション (クライアント) を接続するためのデフォルトのネットワークポートは、デフォルトでは次のとおりです。各プライベートネットワーク間でこれらの接続を許可する必要があります。 * **ScalarDL Ledger** * **50051/TCP:** アプリケーション (クライアント) および Scalar Envoy 経由の ScalarDL Auditor からのリクエストを受け入れます。 @@ -43,7 +44,7 @@ ScalarDL Ledger、ScalarDL Auditor、およびアプリケーション(クラ * **40051/TCP:** アプリケーション (クライアント) および ScalarDL Ledger からの ScalarDL Auditor のリクエストを受け入れます。 * **40052/TCP:** アプリケーション (クライアント) および ScalarDL Ledger からの ScalarDL Auditor に対する特権リクエストを受け入れます。 -構成ファイル (ledger.properties または auditor.properties) で ScalarDL のリスニング ポートをデフォルトから変更する場合は、構成したポートを使用して接続を許可する必要があることに注意してください。 +構成ファイル (ledger.properties または auditor.properties) で ScalarDL のリスニングポートをデフォルトから変更する場合は、構成したポートを使用して接続を許可する必要があることに注意してください。 ## プライベートネットワークピアリング @@ -51,7 +52,7 @@ ScalarDL Ledger、ScalarDL Auditor、およびアプリケーション(クラ ### Amazon VPC ピアリング -アマゾン ウェブ サービス (AWS) 環境で Virtual Private Cloud (VPC) をピアリングする方法の詳細については、Amazon の公式ドキュメント [Create a VPC peering connection](https://docs.aws.amazon.com/vpc/latest/peering/create-vpc-peering-connection.html) を参照してください。 +アマゾンウェブサービス (AWS) 環境で Virtual Private Cloud (VPC) をピアリングする方法の詳細については、Amazon の公式ドキュメント [Create a VPC peering connection](https://docs.aws.amazon.com/vpc/latest/peering/create-vpc-peering-connection.html) を参照してください。 ### Azure VNet ピアリング diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ProductionChecklistForScalarDBCluster.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ProductionChecklistForScalarDBCluster.mdx index d69283a8..a1eed1be 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ProductionChecklistForScalarDBCluster.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ProductionChecklistForScalarDBCluster.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # ScalarDB Cluster の制作チェックリスト @@ -22,23 +23,23 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; ### ポッドと Kubernetes ワーカーノードの数 -Kubernetes クラスターの高可用性を確保するには、少なくとも 3 つのワーカーノードを使用し、ワーカーノード全体に少なくとも 3 つのポッドをデプロイする必要があります。 3 つのポッドをワーカーノードに分散させるための `podAntiAffinity` の [サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardb-cluster-custom-values-indirect-mode.yaml) を参照できます。 +Kubernetes クラスターの高可用性を確保するには、少なくとも3つのワーカーノードを使用し、ワーカーノード全体に少なくとも3つのポッドをデプロイする必要があります。3つのポッドをワーカーノードに分散させるための `podAntiAffinity` の[サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardb-cluster-custom-values-indirect-mode.yaml)を参照できます。 :::note -ワーカーノードを異なるアベイラビリティ ゾーン (AZ) に配置すると、AZ の障害に耐えることができます。 +ワーカーノードを異なるアベイラビリティゾーン (AZ) に配置すると、AZ の障害に耐えることができます。 ::: ### ワーカーノードの仕様 -商用ライセンスの観点から、ScalarDB Cluster を実行する 1 つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。 また、ScalarDB Cluster ポッド以外の一部のポッドがワーカーノード上に存在します。 +商用ライセンスの観点から、ScalarDB Cluster を実行する1つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。また、ScalarDB Cluster ポッド以外の一部のポッドがワーカーノード上に存在します。 -つまり、次のコンポーネントは 1 つのワーカーノード上で実行できます。 +つまり、次のコンポーネントは1つのワーカーノード上で実行できます。 * ScalarDB Cluster ポッド (2vCPU / 4GB) -* Envoy プロキシ (`indirect` クライアント モードを使用する場合、または Java 以外のプログラミング言語を使用する場合) -* アプリケーション ポッド (同じワーカーノード上でアプリケーションのポッドを実行することを選択した場合) +* Envoy プロキシ (`indirect` クライアントモードを使用する場合、または Java 以外のプログラミング言語を使用する場合) +* アプリケーションポッド (同じワーカーノード上でアプリケーションのポッドを実行することを選択した場合) * 監視コンポーネント (`kube-prometheus-stack` などの監視コンポーネントをデプロイする場合) * Kubernetes コンポーネント @@ -48,43 +49,43 @@ Kubernetes クラスターの高可用性を確保するには、少なくとも ::: -これを念頭に置いて、[ポッドと Kubernetes ワーカーノードの数](ProductionChecklistForScalarDBCluster.mdx#ポッドと-kubernetes-ワーカーノードの数) で説明されているように、少なくとも 4vCPU / 8GB のメモリ リソースを持つワーカーノードを使用し、可用性のために少なくとも 3 つのワーカーノードを使用する必要があります。 +これを念頭に置いて、[ポッドと Kubernetes ワーカーノードの数](ProductionChecklistForScalarDBCluster.mdx#ポッドと-kubernetes-ワーカーノードの数)で説明されているように、少なくとも 4vCPU / 8GB のメモリリソースを持つワーカーノードを使用し、可用性のために少なくとも3つのワーカーノードを使用する必要があります。 -ただし、実稼働環境では、ノードあたり少なくとも 4vCPU / 8GB のメモリ リソースを備えた 3 つのノードが最小限です。 システムのワークロードに応じて、Kubernetes クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDB Cluster ポッド、アプリケーションのポッドなど) も考慮する必要があります。 また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングすることを計画している場合は、ワーカーノード上のポッドの最大数を考慮してワーカーノードのリソースを決定する必要があります。 +ただし、実稼働環境では、ノードあたり少なくとも 4vCPU / 8GB のメモリリソースを備えた3つのノードが最小限です。システムのワークロードに応じて、Kubernetes クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDB Cluster ポッド、アプリケーションのポッドなど) も考慮する必要があります。また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングすることを計画している場合は、ワーカーノード上のポッドの最大数を考慮してワーカーノードのリソースを決定する必要があります。 #### 通信網 -ScalarDB Cluster はインターネット アクセス経由でユーザーに直接サービスを提供しないため、Kubernetes クラスターはプライベート ネットワーク上に作成する必要があります。 アプリケーションからプライベート ネットワーク経由で ScalarDB Cluster にアクセスすることをお勧めします。 +ScalarDB Cluster はインターネットアクセス経由でユーザーに直接サービスを提供しないため、Kubernetes クラスターはプライベートネットワーク上に作成する必要があります。アプリケーションからプライベートネットワーク経由で ScalarDB Cluster にアクセスすることをお勧めします。 ### 監視とログ記録 -デプロイされたコンポーネントを監視し、そのログを収集する必要があります。 詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) および `Kubernetes クラスター上の Scalar 製品からのログの収集](./K8sLogCollectionGuide.mdx) を参照してください。 +デプロイされたコンポーネントを監視し、そのログを収集する必要があります。詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx)および `Kubernetes クラスター上の Scalar 製品からのログの収集](./K8sLogCollectionGuide.mdx)を参照してください。 ### バックアップと復元 -バックエンド データベースで自動バックアップ機能とポイントインタイム リカバリ (PITR) 機能を有効にする必要があります。 詳細については、[ScalarDB/ScalarDL 導入用のデータベースのセットアップ](SetupDatabase.mdx) を参照してください。 +バックエンドデータベースで自動バックアップ機能とポイントインタイムリカバリ (PITR) 機能を有効にする必要があります。詳細については、[ScalarDB/ScalarDL 導入用のデータベースのセットアップ](SetupDatabase.mdx)を参照してください。 -## 運用チェックリスト: ScalarDB Cluster にアクセスするクライアント アプリケーション +## 運用チェックリスト: ScalarDB Cluster にアクセスするクライアントアプリケーション -以下は、実稼働環境で ScalarDB Cluster にアクセスするクライアント アプリケーションをセットアップする際の推奨事項のチェックリストです。 +以下は、実稼働環境で ScalarDB Cluster にアクセスするクライアントアプリケーションをセットアップする際の推奨事項のチェックリストです。 -### クライアント モード (Java クライアント ライブラリのみ) +### クライアントモード (Java クライアントライブラリのみ) -アプリケーションに Java を使用する場合、公式の Java クライアント ライブラリを使用できます。 この場合、[`direct-kubernetes mode`](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/developer-guide-for-scalardb-cluster-with-java-api#direct-kubernetes-client-mode) または [`indirect mode`](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/developer-guide-for-scalardb-cluster-with-java-api#indirect-client-mode) の 2 つのクライアント モードのいずれかを選択できます。 +アプリケーションに Java を使用する場合、公式の Java クライアントライブラリを使用できます。この場合、[`direct-kubernetes mode`](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/developer-guide-for-scalardb-cluster-with-java-api#direct-kubernetes-client-mode) または [`indirect mode`](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/developer-guide-for-scalardb-cluster-with-java-api#indirect-client-mode) の2つのクライアントモードのいずれかを選択できます。 -パフォーマンスの観点から、`direct-kubernetes` モードの使用をお勧めします。 `direct-kubernetes` モードを使用するには、アプリケーション ポッドを ScalarDB Cluster ポッドと同じ Kubernetes クラスターにデプロイする必要があります。 この場合、Envoy ポッドをデプロイする必要はありません。 +パフォーマンスの観点から、`direct-kubernetes` モードの使用をお勧めします。`direct-kubernetes` モードを使用するには、アプリケーションポッドを ScalarDB Cluster ポッドと同じ Kubernetes クラスターにデプロイする必要があります。この場合、Envoy ポッドをデプロイする必要はありません。 -何らかの理由で Java アプリケーション ポッドを ScalarDB Cluster ポッドと同じ Kubernetes クラスターにデプロイできない場合は、`indirect` モードを使用する必要があります。 この場合、Envoy ポッドをデプロイする必要があります。 +何らかの理由で Java アプリケーションポッドを ScalarDB Cluster ポッドと同じ Kubernetes クラスターにデプロイできない場合は、`indirect` モードを使用する必要があります。この場合、Envoy ポッドをデプロイする必要があります。 :::note -クライアント モード設定は Java クライアント ライブラリ専用です。 アプリケーションに Java 以外のプログラミング言語を使用する場合 (基本的に、[gRPC API](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/scalardb-cluster-grpc-api-guide) または [gRPC SQL API](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/scalardb-cluster-sql-grpc-api-guide) をプログラミング言語から直接使用する場合)、そのような構成は存在しません。 この場合、Envoy ポッドをデプロイする必要があります。 +クライアントモード設定は Java クライアントライブラリ専用です。アプリケーションに Java 以外のプログラミング言語を使用する場合 (基本的に、[gRPC API](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/scalardb-cluster-grpc-api-guide) または [gRPC SQL API](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/scalardb-cluster-sql-grpc-api-guide) をプログラミング言語から直接使用する場合)、そのような構成は存在しません。この場合、Envoy ポッドをデプロイする必要があります。 ::: -### トランザクション マネージャーの構成 (Java クライアント ライブラリのみ) +### トランザクションマネージャーの構成 (Java クライアントライブラリのみ) -クライアント アプリケーションは、常に ScalarDB Cluster を通じてデータベースにアクセスする必要があります。 リクエストが適切に実行されていることを確認するには、クライアント アプリケーションのプロパティ ファイルをチェックし、CRUD API の使用時に `scalar.db.transaction_manager=cluster` が設定されていることを確認します。 +クライアントアプリケーションは、常に ScalarDB Cluster を通じてデータベースにアクセスする必要があります。リクエストが適切に実行されていることを確認するには、クライアントアプリケーションのプロパティファイルをチェックし、CRUD API の使用時に `scalar.db.transaction_manager=cluster` が設定されていることを確認します。 #### 実稼働環境に推奨 @@ -96,7 +97,7 @@ flowchart LR app --> server --> db ``` -#### Not recommended for production environments (for testing purposes only) +#### 本番環境では推奨されません (テスト目的のみ) ```mermaid flowchart LR @@ -105,15 +106,15 @@ flowchart LR app --> db ``` -### SQL 接続構成 (Java クライアント ライブラリのみ) +### SQL 接続構成 (Java クライアントライブラリのみ) -クライアント アプリケーションは、常に ScalarDB Cluster を通じてデータベースにアクセスする必要があります。 リクエストが適切に実行されていることを確認するには、クライアント アプリケーションのプロパティ ファイルをチェックし、SQL API を使用するときに `scalar.db.sql.connection_mode=cluster` が設定されていることを確認します。 +クライアントアプリケーションは、常に ScalarDB Cluster を通じてデータベースにアクセスする必要があります。リクエストが適切に実行されていることを確認するには、クライアントアプリケーションのプロパティファイルをチェックし、SQL API を使用するときに `scalar.db.sql.connection_mode=cluster` が設定されていることを確認します。 #### 実稼働環境に推奨 ```mermaid flowchart LR - app["アプリ
ScalarDB SQL ライブラリ (クラスター モード)"] + app["アプリ
ScalarDB SQL ライブラリ (クラスターモード)"] server["ScalarDB Cluster
Consensus Commit を備えた
ScalarDB ライブラリ"] db[(基盤となるストレージまたはデータベース)] app --> server --> db @@ -123,20 +124,20 @@ flowchart LR ```mermaid flowchart LR - app["アプリ
ScalarDB SQL ライブラリ (ダイレクト モード)"] + app["アプリ
ScalarDB SQL ライブラリ (ダイレクトモード)"] db[(基盤となるストレージまたはデータベース)] app --> db ``` -### `direct-kubernetes` クライアント モードを使用する場合のクライアント アプリケーションのデプロイメント (Java クライアント ライブラリのみ) +### `direct-kubernetes` クライアントモードを使用する場合のクライアントアプリケーションのデプロイメント (Java クライアントライブラリのみ) -[`direct-kubernetes` client mode](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/developer-guide-for-scalardb-cluster-with-java-api#direct-kubernetes-client-mode) を使用する場合は、クライアント アプリケーションを ScalarDB Cluster デプロイメントと同じ Kubernetes クラスターにデプロイする必要があります。 +[`direct-kubernetes` client mode](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/developer-guide-for-scalardb-cluster-with-java-api#direct-kubernetes-client-mode) を使用する場合は、クライアントアプリケーションを ScalarDB Cluster デプロイメントと同じ Kubernetes クラスターにデプロイする必要があります。 -また、`direct-kubernetes` クライアント モードを使用する場合は、クライアント アプリケーションが適切に動作するように追加の Kubernetes リソースをデプロイする必要があります。 詳細については、[Deploy your client application on Kubernetes with `direct-kubernetes` mode](../helm-charts/how-to-deploy-scalardb-cluster.mdx#direct-kubernetes-モードを使用してクライアント-アプリケーションを-kubernetes-にデプロイします) を参照してください。 +また、`direct-kubernetes` クライアントモードを使用する場合は、クライアントアプリケーションが適切に動作するように追加の Kubernetes リソースをデプロイする必要があります。詳細については、[Deploy your client application on Kubernetes with `direct-kubernetes` mode](../helm-charts/how-to-deploy-scalardb-cluster.mdx#direct-kubernetes-モードを使用してクライアント-アプリケーションを-kubernetes-にデプロイします) を参照してください。 -### トランザクション処理 (Java クライアント ライブラリと gRPC API) +### トランザクション処理 (Java クライアントライブラリと gRPC API) -トランザクションを [`begin()`](https://scalardb.scalar-labs.com/docs/latest/api-guide#begin-or-start-a-transaction) した後、アプリケーションが常に [`commit()`](https://scalardb.scalar-labs.com/docs/latest/api-guide#commit-a-transaction) または [`rollback()`](https://scalardb.scalar-labs.com/docs/latest/api-guide#roll-back-or-abort-a-transaction) を実行するようにする必要があります。 アプリケーションが `commit()` または `rollback()` を実行しない場合、アプリケーションで予期しない問題が発生したり、バックエンド データベースから一貫性のないデータが読み取られる可能性があります。 +トランザクションを [`begin()`](https://scalardb.scalar-labs.com/docs/latest/api-guide#begin-or-start-a-transaction) した後、アプリケーションが常に [`commit()`](https://scalardb.scalar-labs.com/docs/latest/api-guide#commit-a-transaction) または [`rollback()`](https://scalardb.scalar-labs.com/docs/latest/api-guide#roll-back-or-abort-a-transaction) を実行するようにする必要があります。アプリケーションが `commit()` または `rollback()` を実行しない場合、アプリケーションで予期しない問題が発生したり、バックエンドデータベースから一貫性のないデータが読み取られる可能性があります。 :::note @@ -144,9 +145,9 @@ flowchart LR ::: -### 例外処理 (Java クライアント ライブラリと gRPC API) +### 例外処理 (Java クライアントライブラリと gRPC API) -アプリケーションがトランザクション例外を処理することを確認する必要があります。 詳細については、使用している API のドキュメントを参照してください。 +アプリケーションがトランザクション例外を処理することを確認する必要があります。詳細については、使用している API のドキュメントを参照してください。 * [Handle exceptions (Transactional API)](https://scalardb.scalar-labs.com/docs/latest/api-guide#handle-exceptions). * [Handle exceptions (two-phase commit transactions API)](https://scalardb.scalar-labs.com/docs/latest/two-phase-commit-transactions#handle-exceptions) diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ProductionChecklistForScalarDLAuditor.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ProductionChecklistForScalarDLAuditor.mdx index f3f1e0ff..cbb7a08c 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ProductionChecklistForScalarDLAuditor.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ProductionChecklistForScalarDLAuditor.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsJapanese --- # ScalarDL Auditor の制作チェックリスト @@ -19,42 +20,42 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; ### ScalarDL の可用性 -Kubernetes クラスターの高可用性を確保するには、少なくとも 3 つのワーカーノードを使用し、ワーカーノード全体に少なくとも 3 つのポッドをデプロイする必要があります。 3 つのポッドをワーカーノードに分散させるための `podAntiAffinity` の [サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-audit-custom-values.yaml) を参照できます。 +Kubernetes クラスターの高可用性を確保するには、少なくとも3つのワーカーノードを使用し、ワーカーノード全体に少なくとも3つのポッドをデプロイする必要があります。3つのポッドをワーカーノードに分散させるための `podAntiAffinity` の[サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-audit-custom-values.yaml)を参照できます。 :::note -ワーカーノードを異なるアベイラビリティ ゾーン (AZ) に配置すると、AZ の障害に耐えることができます。 +ワーカーノードを異なるアベイラビリティゾーン (AZ) に配置すると、AZ の障害に耐えることができます。 ::: ### リソース -商用ライセンスの観点から、ScalarDL Auditor を実行する 1 つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。 ScalarDL Auditor ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 +商用ライセンスの観点から、ScalarDL Auditor を実行する1つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。ScalarDL Auditor ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 * ScalarDL Auditor ポッド (2vCPU / 4GB) * Envoy プロキシ * 監視コンポーネント (`kube-prometheus-stack` などの監視コンポーネントをデプロイする場合) * Kubernetes コンポーネント -これを念頭に置いて、[ScalarDL の可用性](#scalardl-availability) で説明されているように、少なくとも 4vCPU / 8GB のメモリ リソースを持つワーカーノードを使用し、可用性のために少なくとも 3 つのワーカーノードを使用する必要があります。 +これを念頭に置いて、[ScalarDL の可用性](#scalardl-availability)で説明されているように、少なくとも 4vCPU / 8GB のメモリリソースを持つワーカーノードを使用し、可用性のために少なくとも3つのワーカーノードを使用する必要があります。 -ただし、ノードあたり少なくとも 4vCPU / 8GB のメモリ リソースを備えた 3 つのノードが運用環境の最小環境となります。 システムのワークロードに応じて、Kubernetes クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDL Auditor ポッドなど) も考慮する必要があります。 また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 +ただし、ノードあたり少なくとも 4vCPU / 8GB のメモリリソースを備えた3つのノードが運用環境の最小環境となります。システムのワークロードに応じて、Kubernetes クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDL Auditor ポッドなど) も考慮する必要があります。また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 ### 通信網 -ScalarDL Auditor はインターネット アクセス経由でユーザーにサービスを直接提供しないため、Kubernetes クラスターはプライベート ネットワーク上に作成する必要があります。 アプリケーションからプライベート ネットワーク経由で ScalarDL Auditor にアクセスすることをお勧めします。 +ScalarDL Auditor はインターネットアクセス経由でユーザーにサービスを直接提供しないため、Kubernetes クラスターはプライベートネットワーク上に作成する必要があります。アプリケーションからプライベートネットワーク経由で ScalarDL Auditor にアクセスすることをお勧めします。 ### 監視とログ記録 -デプロイされたコンポーネントを監視し、そのログを収集する必要があります。 詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx) を参照してください。 +デプロイされたコンポーネントを監視し、そのログを収集する必要があります。詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx)および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx)を参照してください。 ### バックアップと復元 -バックエンド データベースで自動バックアップ機能とポイントインタイム リカバリ (PITR) 機能を有効にする必要があります。 詳細については、[ScalarDB/ScalarDL 導入用のデータベースのセットアップ](SetupDatabase.mdx) を参照してください。 +バックエンドデータベースで自動バックアップ機能とポイントインタイムリカバリ (PITR) 機能を有効にする必要があります。詳細については、[ScalarDB/ScalarDL 導入用のデータベースのセットアップ](SetupDatabase.mdx)を参照してください。 ### ScalarDL Auditor の展開 -ScalarDL でのビザンチン障害検出が適切に機能するには、ScalarDL Ledger デプロイメントと同じ Kubernetes クラスターに ScalarDL Auditor ポッドをデプロイしないでください。 代わりに、ScalarDL Ledger デプロイメントの管理ドメイン以外の環境 (Kubernetes クラスター以外) に ScalarDL Auditor ポッドをデプロイする必要があります。 +ScalarDL でのビザンチン障害検出が適切に機能するには、ScalarDL Ledger デプロイメントと同じ Kubernetes クラスターに ScalarDL Auditor ポッドをデプロイしないでください。代わりに、ScalarDL Ledger デプロイメントの管理ドメイン以外の環境 (Kubernetes クラスター以外) に ScalarDL Auditor ポッドをデプロイする必要があります。 #### 実稼働環境に必要 @@ -100,7 +101,7 @@ graph LR A-1 --- B-1 ``` -ScalarDL は、ScalarDL Ledger と ScalarDL Auditor 間の接続に次のポートを使用します。 ScalarDL Ledger と ScalarDL Auditor の間で次の接続を許可する必要があります。 +ScalarDL は、ScalarDL Ledger と ScalarDL Auditor 間の接続に次のポートを使用します。ScalarDL Ledger と ScalarDL Auditor の間で次の接続を許可する必要があります。 * ScalarDL Ledger * 50051/TCP @@ -121,30 +122,30 @@ Curve parameter : P-256 詳しくは [How to get a certificate](https://scalardl.scalar-labs.com/ja-jp/docs/latest/ca/caclient-getting-started) をご覧ください。 -## 実稼働チェックリスト: ScalarDL Auditor にアクセスするクライアント アプリケーション +## 実稼働チェックリスト: ScalarDL Auditor にアクセスするクライアントアプリケーション -以下は、運用環境で ScalarDL Auditor にアクセスするクライアント アプリケーションをセットアップする際の推奨事項のチェックリストです。 +以下は、運用環境で ScalarDL Auditor にアクセスするクライアントアプリケーションをセットアップする際の推奨事項のチェックリストです。 -### クライアント アプリケーションのデプロイメント +### クライアントアプリケーションのデプロイメント -ScalarDL でのビザンチン障害検出が適切に機能するには、ScalarDL デプロイメントと同じ Kubernetes クラスターにアプリケーション ポッドをデプロイしないでください。 代わりに、ScalarDL デプロイメントの管理ドメイン以外の環境 (Kubernetes クラスター以外) にアプリケーションをデプロイする必要があります。 +ScalarDL でのビザンチン障害検出が適切に機能するには、ScalarDL デプロイメントと同じ Kubernetes クラスターにアプリケーションポッドをデプロイしないでください。代わりに、ScalarDL デプロイメントの管理ドメイン以外の環境 (Kubernetes クラスター以外) にアプリケーションをデプロイする必要があります。 #### 実稼働環境に必要 ```mermaid graph LR - subgraph "管理ドメイン 1" + subgraph "管理ドメイン 1" subgraph "別の環境" A-1[ユーザーアプリケーション] end end subgraph "ScalarDL" - subgraph "管理ドメイン 2" + subgraph "管理ドメイン 2" subgraph "Ledger 用の Kubernetes クラスター" B-1[ScalarDL Ledger] end end - subgraph "管理ドメイン 3" + subgraph "管理ドメイン 3" subgraph "Auditor 用の Kubernetes クラスター" C-1[ScalarDL Auditor] end @@ -168,6 +169,6 @@ graph LR A-1 --> A-3 ``` -### クライアント アプリケーションのチェックリスト +### クライアントアプリケーションのチェックリスト -また、[運用チェックリスト: ScalarDL Ledger にアクセスするクライアントアプリケーション](ProductionChecklistForScalarDLLedger.mdx#運用チェックリスト-scalardl-ledger-にアクセスするクライアントアプリケーション) を満たしていることも確認する必要があります。 +また、[運用チェックリスト: ScalarDL Ledger にアクセスするクライアントアプリケーション](ProductionChecklistForScalarDLLedger.mdx#運用チェックリスト-scalardl-ledger-にアクセスするクライアントアプリケーション)を満たしていることも確認する必要があります。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ProductionChecklistForScalarDLLedger.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ProductionChecklistForScalarDLLedger.mdx index 4f1a8941..0f9428fe 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ProductionChecklistForScalarDLLedger.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ProductionChecklistForScalarDLLedger.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsJapanese --- # ScalarDL Ledgerの制作チェックリスト @@ -19,46 +20,46 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; ### ScalarDL の可用性 -Kubernetes クラスターの高可用性を確保するには、少なくとも 3 つのワーカーノードを使用し、ワーカーノード全体に少なくとも 3 つのポッドをデプロイする必要があります。 3 つのポッドをワーカーノードに分散させるための `podAntiAffinity` の [サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-custom-values.yaml) を参照できます。 +Kubernetes クラスターの高可用性を確保するには、少なくとも3つのワーカーノードを使用し、ワーカーノード全体に少なくとも3つのポッドをデプロイする必要があります。3つのポッドをワーカーノードに分散させるための `podAntiAffinity` の[サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-custom-values.yaml)を参照できます。 :::note -ワーカーノードを異なるアベイラビリティ ゾーン (AZ) に配置すると、AZ の障害に耐えることができます。 +ワーカーノードを異なるアベイラビリティゾーン (AZ) に配置すると、AZ の障害に耐えることができます。 ::: ### リソース -商用ライセンスの観点から、ScalarDL Ledger を実行する 1 つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。 ScalarDL Ledger ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 +商用ライセンスの観点から、ScalarDL Ledger を実行する1つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。ScalarDL Ledger ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 * ScalarDL Ledger ポッド (2vCPU / 4GB) * Envoy プロキシ * 監視コンポーネント (`kube-prometheus-stack` などの監視コンポーネントをデプロイする場合) * Kubernetes コンポーネント -これを念頭に置いて、[ScalarDL の可用性](#scalardl-availability) で説明されているように、少なくとも 4vCPU / 8GB のメモリ リソースを持つワーカーノードを使用し、可用性のために少なくとも 3 つのワーカーノードを使用する必要があります。 +これを念頭に置いて、[ScalarDL の可用性](#scalardl-availability) で説明されているように、少なくとも 4vCPU / 8GB のメモリリソースを持つワーカーノードを使用し、可用性のために少なくとも3つのワーカーノードを使用する必要があります。 -ただし、ノードあたり少なくとも 4vCPU / 8GB のメモリ リソースを備えた 3 つのノードが運用環境の最小環境となります。 システムのワークロードに応じて、Kubernetes クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDL Ledger ポッドなど) も考慮する必要があります。 また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 +ただし、ノードあたり少なくとも 4vCPU / 8GB のメモリリソースを備えた3つのノードが運用環境の最小環境となります。システムのワークロードに応じて、Kubernetes クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDL Ledger ポッドなど) も考慮する必要があります。また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 ### 通信網 -ScalarDL Ledger はインターネット アクセス経由でユーザーにサービスを直接提供しないため、Kubernetes クラスターはプライベート ネットワーク上に作成する必要があります。 アプリケーションからプライベート ネットワーク経由で ScalarDL Ledger にアクセスすることをお勧めします。 +ScalarDL Ledger はインターネットアクセス経由でユーザーにサービスを直接提供しないため、Kubernetes クラスターはプライベートネットワーク上に作成する必要があります。アプリケーションからプライベートネットワーク経由で ScalarDL Ledger にアクセスすることをお勧めします。 ### 監視とログ記録 -デプロイされたコンポーネントを監視し、そのログを収集する必要があります。 詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx) を参照してください。 +デプロイされたコンポーネントを監視し、そのログを収集する必要があります。詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx)および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx)を参照してください。 ### バックアップと復元 -バックエンド データベースで自動バックアップ機能とポイントインタイム リカバリ (PITR) 機能を有効にする必要があります。 詳細については、[ScalarDB/ScalarDL 導入用のデータベースのセットアップ](SetupDatabase.mdx) を参照してください。 +バックエンドデータベースで自動バックアップ機能とポイントインタイムリカバリ (PITR) 機能を有効にする必要があります。詳細については、[ScalarDB/ScalarDL 導入用のデータベースのセットアップ](SetupDatabase.mdx) を参照してください。 ## 運用チェックリスト: ScalarDL Ledger にアクセスするクライアントアプリケーション -以下は、運用環境で ScalarDL Ledger にアクセスするクライアント アプリケーションをセットアップする際の推奨事項のチェックリストです。 +以下は、運用環境で ScalarDL Ledger にアクセスするクライアントアプリケーションをセットアップする際の推奨事項のチェックリストです。 -### クライアント アプリケーションのデプロイメント +### クライアントアプリケーションのデプロイメント -ScalarDL でのビザンチン障害検出が適切に機能するには、アプリケーション ポッドを ScalarDL Ledger デプロイメントと同じ Kubernetes クラスターにデプロイしないでください。 代わりに、ScalarDL Ledger デプロイメントの管理ドメイン以外の環境 (Kubernetes クラスター以外) にアプリケーションをデプロイする必要があります。 +ScalarDL でのビザンチン障害検出が適切に機能するには、アプリケーションポッドを ScalarDL Ledger デプロイメントと同じ Kubernetes クラスターにデプロイしないでください。代わりに、ScalarDL Ledger デプロイメントの管理ドメイン以外の環境 (Kubernetes クラスター以外) にアプリケーションをデプロイする必要があります。 #### 実稼働環境に必要 @@ -87,16 +88,16 @@ graph LR end ``` -### 契約と機能 +### コントラクトと機能 -契約と機能がガイドラインに従っているかどうかを確認するには、次を参照してください。 +コントラクトと機能がガイドラインに従っているかどうかを確認するには、次を参照してください。 * [A Guide on How to Write a Good Contract for ScalarDL](https://scalardl.scalar-labs.com/ja-jp/docs/latest/how-to-write-contract) * [A Guide on How to Write Function for ScalarDL](https://scalardl.scalar-labs.com/ja-jp/docs/latest/how-to-write-function) -### 契約のバージョン管理 +### コントラクトのバージョン管理 -契約を登録した後は、既存の契約を上書きすることはできません。 したがって、契約のバージョン管理を検討する必要があります。 次の 2 つの方法のいずれかを推奨します。 +コントラクトを登録した後は、既存のコントラクトを上書きすることはできません。したがって、コントラクトのバージョン管理を検討する必要があります。次の2つの方法のいずれかを推奨します。 #### `クラス名` を使用したバージョニング @@ -122,11 +123,11 @@ Binary Name : com.example.contract.v4.Foo Class file (Class Name) : src/main/java/com/example/contract/v4/Foo.class ``` -### 契約上の制限 +### コントラクト上の制限 コントラクト登録時にバイナリ名、パッケージ名、クラス名が異なる場合、登録後にそのコントラクトを実行することはできません。 -#### バイナリ名とクラス名が異なります(このコントラクトは実行できません) +#### バイナリ名とクラス名が異なります (このコントラクトは実行できません) ```console Contract ID : FooV5 @@ -134,7 +135,7 @@ Binary Name : com.example.contract.FooV5 Class file (Class Name) : src/main/java/com/example/contract/FooV6.class ``` -#### バイナリ名とパッケージ名が異なります(本契約は実行できません) +#### バイナリ名とパッケージ名が異なります (本コントラクトは実行できません) ```console Contract ID : FooV7 @@ -144,7 +145,7 @@ Class file (Class Name) : src/main/java/com/example/contract/v8/Foo.class ### 秘密鍵と証明書 -認証に PKI を使用する場合、ScalarDL Ledger に登録する秘密キーと証明書が次の要件を満たしていることを確認する必要があります。 +認証に PKI を使用する場合、ScalarDL Ledger に登録する秘密鍵と証明書が次の要件を満たしていることを確認する必要があります。 ```console Algorithm : ECDSA @@ -156,4 +157,4 @@ Curve parameter : P-256 ### 例外処理 -アプリケーションが例外を処理することを確認する必要があります。 詳細については、[A Guide on How to Handle Errors in ScalarDL](https://scalardl.scalar-labs.com/ja-jp/docs/latest/how-to-handle-errors) を参照してください。 +アプリケーションが例外を処理することを確認する必要があります。詳細については、[A Guide on How to Handle Errors in ScalarDL](https://scalardl.scalar-labs.com/ja-jp/docs/latest/how-to-handle-errors) を参照してください。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ProductionChecklistForScalarProducts.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ProductionChecklistForScalarProducts.mdx index ab141ab5..ccdb9a9a 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ProductionChecklistForScalarProducts.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/ProductionChecklistForScalarProducts.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Scalar 製品の制作チェックリスト diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/RegularCheck.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/RegularCheck.mdx index 92a05664..1e6a40c1 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/RegularCheck.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/RegularCheck.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Kubernetes 環境で実行するときに定期的にチェックするコンポーネント @@ -10,7 +11,7 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -手動デプロイメント ガイドによってデプロイされたコンポーネントのほとんどは、マネージド Kubernetes サービスと Kubernetes 自己修復機能の助けを借りて自己修復されます。 予期しない動作が発生したときに発生するアラートも設定されています。 したがって、マネージド Kubernetes クラスターに Scalar 製品をデプロイするために毎日行うべきことはそれほど多くありません。 ただし、システムのステータスを定期的にチェックして、すべてが正常に動作しているかどうかを確認することをお勧めします。 ここでは、定期的に実行しておきたいことのリストを示します。 +手動デプロイメントガイドによってデプロイされたコンポーネントのほとんどは、マネージド Kubernetes サービスと Kubernetes 自己修復機能の助けを借りて自己修復されます。予期しない動作が発生したときに発生するアラートも設定されています。したがって、マネージド Kubernetes クラスターに Scalar 製品をデプロイするために毎日行うべきことはそれほど多くありません。ただし、システムのステータスを定期的にチェックして、すべてが正常に動作しているかどうかを確認することをお勧めします。ここでは、定期的に実行しておきたいことのリストを示します。 ## Kubernetes リソース @@ -83,7 +84,7 @@ k8s-worker3 Ready 15m v1.25.3 ## Prometheus ダッシュボード (Scalar 製品のアラート) -ドキュメント [Kubernetes クラスター上の Scalar 製品のモニタリング](K8sMonitorGuide.mdx) に従って、Prometheus ダッシュボードにアクセスします。 [**アラート**] タブで、アラートのステータスを確認できます。 +ドキュメント [Kubernetes クラスター上の Scalar 製品のモニタリング](K8sMonitorGuide.mdx)に従って、Prometheus ダッシュボードにアクセスします。[**アラート**] タブで、アラートのステータスを確認できます。 確認すべき内容: @@ -93,6 +94,6 @@ k8s-worker3 Ready 15m v1.25.3 ## Grafana ダッシュボード (Scalar 製品のメトリクス) -ドキュメント [Kubernetes クラスター上の Scalar 製品のモニタリング](K8sMonitorGuide.mdx) に従って、Grafana ダッシュボードにアクセスします。 [**ダッシュボード**] タブには、Scalar 製品のダッシュボードが表示されます。 これらのダッシュボードでは、Scalar 製品のいくつかのメトリクスを確認できます。 +ドキュメント [Kubernetes クラスター上の Scalar 製品のモニタリング](K8sMonitorGuide.mdx)に従って、Grafana ダッシュボードにアクセスします。[**ダッシュボード**] タブには、Scalar 製品のダッシュボードが表示されます。これらのダッシュボードでは、Scalar 製品のいくつかのメトリクスを確認できます。 -これらのダッシュボードは問題に直接対処することはできませんが、通常からの変化 (トランザクション エラーの増加など) を確認して、問題を調査するためのヒントを得ることができます。 +これらのダッシュボードは問題に直接対処することはできませんが、通常からの変化 (トランザクションエラーの増加など) を確認して、問題を調査するためのヒントを得ることができます。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/RestoreDatabase.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/RestoreDatabase.mdx index dfe134a2..3e299a9a 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/RestoreDatabase.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/RestoreDatabase.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Kubernetes 環境でデータベースを復元する @@ -10,11 +11,11 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このガイドでは、ScalarDB または ScalarDL が Kubernetes 環境で使用するデータベースを復元する方法について説明します。 このガイドは、クラウド サービス プロバイダーのマネージド データベースを ScalarDB または ScalarDL のバックエンド データベースとして使用していることを前提としていることに注意してください。 +このガイドでは、ScalarDB または ScalarDL が Kubernetes 環境で使用するデータベースを復元する方法について説明します。このガイドは、クラウドサービスプロバイダーのマネージドデータベースを ScalarDB または ScalarDL のバックエンドデータベースとして使用していることを前提としていることに注意してください。 ## データベースをリストアする手順 -1. ScalarDB または ScalarDL ポッドを **0** にスケールインして、バックエンド データベースへのリクエストを停止します。 Helm コマンドで `--set *.replicaCount=0` フラグを使用すると、ポッドを **0** にスケールインできます。 +1. ScalarDB または ScalarDL ポッドを**0**にスケールインして、バックエンドデータベースへのリクエストを停止します。Helm コマンドで `--set *.replicaCount=0` フラグを使用すると、ポッドを**0**にスケールインできます。 * ScalarDB Server ```console helm upgrade scalar-labs/scalardb -n -f /path/to/ --set scalardb.replicaCount=0 @@ -29,15 +30,15 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; ``` 2. ポイントインタイムリカバリ (PITR) 機能を使用してデータベースを復元します。 - 管理データベースに基づいてデータベースを復元する方法の詳細については、このガイドの [管理されたデータベースに基づいてデータを復元するための補足手順](RestoreDatabase.mdx#管理されたデータベースに基づいてデータを復元するための補足手順) セクションを参照してください。 + 管理データベースに基づいてデータベースを復元する方法の詳細については、このガイドの[管理されたデータベースに基づいてデータを復元するための補足手順](RestoreDatabase.mdx#管理されたデータベースに基づいてデータを復元するための補足手順)セクションを参照してください。 - NoSQL または複数のデータベースを使用している場合は、[Kubernetes 環境での NoSQL データベースのバックアップ](BackupNoSQL.mdx) のバックアップ手順に従うときに作成した一時停止期間の中間点を指定する必要があります。 + NoSQL または複数のデータベースを使用している場合は、[Kubernetes 環境での NoSQL データベースのバックアップ](BackupNoSQL.mdx)のバックアップ手順に従うときに作成した一時停止期間の中間点を指定する必要があります。 3. 新しく復元されたデータベースに基づいて **database.properties**、**ledger.properties**、または **auditor.properties** を更新します。 - PITR 機能はデータベースを別のインスタンスとして復元するため、新しく復元されたデータベースにアクセスするには、ScalarDB または ScalarDL のカスタム値ファイル内のエンドポイント情報を更新する必要があります。 カスタム値ファイルの設定方法の詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 + PITR 機能はデータベースを別のインスタンスとして復元するため、新しく復元されたデータベースにアクセスするには、ScalarDB または ScalarDL のカスタム値ファイル内のエンドポイント情報を更新する必要があります。カスタム値ファイルの設定方法の詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 - Amazon DynamoDB を使用している場合、データは別のインスタンスではなく別のテーブル名で復元されることに注意してください。 つまり、データの復元後にエンドポイントは変更されません。 代わりに、Amazon DynamoDB 内のテーブルの名前を変更してデータを復元する必要があります。 同じテーブル名でデータを復元する方法の詳細については、このガイドの [Amazon DynamoDB](RestoreDatabase.mdx#amazon-dynamodb) セクションを参照してください。 -4. Helm コマンドの `--set *.replicaCount=N` フラグを使用して、ScalarDB または ScalarDL ポッドを **1** 以上にスケールアウトし、クライアントからのリクエストの受け入れを開始します。 + Amazon DynamoDB を使用している場合、データは別のインスタンスではなく別のテーブル名で復元されることに注意してください。つまり、データの復元後にエンドポイントは変更されません。代わりに、Amazon DynamoDB 内のテーブルの名前を変更してデータを復元する必要があります。同じテーブル名でデータを復元する方法の詳細については、このガイドの [Amazon DynamoDB](RestoreDatabase.mdx#amazon-dynamodb) セクションを参照してください。 +4. Helm コマンドの `--set *.replicaCount=N` フラグを使用して、ScalarDB または ScalarDL ポッドを**1**以上にスケールアウトし、クライアントからのリクエストの受け入れを開始します。 * ScalarDB Server ```console helm upgrade scalar-labs/scalardb -n -f /path/to/ --set scalardb.replicaCount=3 @@ -55,7 +56,7 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; ### Amazon DynamoDB -PITR 機能を使用すると、Amazon DynamoDB は別のテーブル名でデータを復元します。 したがって、同じテーブル名でデータを復元するには、追加の手順に従う必要があります。 +PITR 機能を使用すると、Amazon DynamoDB は別のテーブル名でデータを復元します。したがって、同じテーブル名でデータを復元するには、追加の手順に従う必要があります。 #### ステップ @@ -78,34 +79,34 @@ PITR 機能を使用すると、Amazon DynamoDB は別のテーブル名でデ 3. 環境に応じて、必要に応じてテーブル構成を更新します。 - 自動スケーリング ポリシーなどの一部の構成は復元後に設定されないため、必要に応じてこれらの構成を手動で設定する必要がある場合があります。 詳細については、Amazon の公式ドキュメント[Backing up and restoring DynamoDB tables with DynamoDB: How it works](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/CreateBackup.html) を参照してください。 + 自動スケーリングポリシーなどの一部の構成は復元後に設定されないため、必要に応じてこれらの構成を手動で設定する必要がある場合があります。詳細については、Amazon の公式ドキュメント[Backing up and restoring DynamoDB tables with DynamoDB: How it works](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/CreateBackup.html) を参照してください。 - たとえば、ScalarDB Schema Loader または ScalarDL Schema Loader を使用してテーブルを作成している場合、自動スケーリングはデフォルトで有効になります。 したがって、DynamoDB で復元されたテーブルの自動スケーリングを手動で有効にする必要があります。 DynamoDB で自動スケーリングを有効にする方法の詳細については、Amazon の公式ドキュメント [Enabling DynamoDB auto scaling on existing tables](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/AutoScaling.Console.html#AutoScaling.Console.ExistingTable) を参照してください。 + たとえば、ScalarDB Schema Loader または ScalarDL Schema Loader を使用してテーブルを作成している場合、自動スケーリングはデフォルトで有効になります。したがって、DynamoDB で復元されたテーブルの自動スケーリングを手動で有効にする必要があります。DynamoDB で自動スケーリングを有効にする方法の詳細については、Amazon の公式ドキュメント [Enabling DynamoDB auto scaling on existing tables](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/AutoScaling.Console.html#AutoScaling.Console.ExistingTable) を参照してください。 - さらに、データベースを復元した後は、PITR 機能が無効になり、読み取り/書き込み容量モードがデフォルト値にリセットされます。 環境に応じて、必要に応じてこれらの構成を手動で設定する必要があります。 復元されたテーブルの一部の構成については、[AWS (Amazon DynamoDB) での ScalarDB/ScalarDL デプロイメント用のデータベースのセットアップ](SetupDatabaseForAWS.mdx#amazon-dynamodb) を参照してください。 + さらに、データベースを復元した後は、PITR 機能が無効になり、読み取り/書き込み容量モードがデフォルト値にリセットされます。環境に応じて、必要に応じてこれらの構成を手動で設定する必要があります。復元されたテーブルの一部の構成については、[AWS (Amazon DynamoDB) での ScalarDB/ScalarDL デプロイメント用のデータベースのセットアップ](SetupDatabaseForAWS.mdx#amazon-dynamodb)を参照してください。 ### NoSQL 用 Azure Cosmos DB -PITR 機能を使用する場合、Azure Cosmos DB は別のアカウントを使用してデータを復元します。 したがって、カスタム値ファイル内のエンドポイント構成を更新する必要があります。 +PITR 機能を使用する場合、Azure Cosmos DB は別のアカウントを使用してデータを復元します。したがって、カスタム値ファイル内のエンドポイント構成を更新する必要があります。 #### ステップ -1. アカウントを復元します。 PITR を使用して Azure Cosmos DB アカウントを復元する方法の詳細については、[Restore an Azure Cosmos DB account that uses continuous backup mode](https://learn.microsoft.com/en-us/azure/cosmos-db/restore-account-continuous-backup) を参照してください。 +1. アカウントを復元します。PITR を使用して Azure Cosmos DB アカウントを復元する方法の詳細については、[Restore an Azure Cosmos DB account that uses continuous backup mode](https://learn.microsoft.com/en-us/azure/cosmos-db/restore-account-continuous-backup) を参照してください。 -2. 復元されたアカウントの **デフォルトの整合性レベル** をデフォルト値から **Strong** に変更します。 この値の変更方法の詳細については、Microsoft の公式ドキュメント [Configure the default consistency level](https://learn.microsoft.com/en-us/azure/cosmos-db/nosql/how-to-manage-consistency#configure-the-default-consistency-level) を参照してください。 +2. 復元されたアカウントの **デフォルトの整合性レベル** をデフォルト値から **Strong** に変更します。この値の変更方法の詳細については、Microsoft の公式ドキュメント [Configure the default consistency level](https://learn.microsoft.com/en-us/azure/cosmos-db/nosql/how-to-manage-consistency#configure-the-default-consistency-level) を参照してください。 3. 新しく復元されたアカウントに基づいて、ScalarDB Schema Loader または ScalarDL Schema Loader の **database.properties** を更新します。 - ScalarDB は、ScalarDB Schema Loader または ScalarDL Schema Loader を使用してスキーマを作成するときにインストールされるストアド プロシージャを使用して Cosmos DB アダプターを実装します。 ただし、Cosmos DB の PITR 機能はストアド プロシージャを復元しないため、復元後にすべてのテーブルに必要なストアド プロシージャを再インストールする必要があります。 ScalarDB Schema Loader または ScalarDL Schema Loader の `--repair-all` オプションを使用して、必要なストアド プロシージャを再インストールできます。 + ScalarDB は、ScalarDB Schema Loader または ScalarDL Schema Loader を使用してスキーマを作成するときにインストールされるストアドプロシージャを使用して Cosmos DB アダプターを実装します。ただし、Cosmos DB の PITR 機能はストアドプロシージャを復元しないため、復元後にすべてのテーブルに必要なストアドプロシージャを再インストールする必要があります。ScalarDB Schema Loader または ScalarDL Schema Loader の `--repair-all` オプションを使用して、必要なストアドプロシージャを再インストールできます。 * **ScalarDB テーブル:** ScalarDB Schema Loader の **database.properties** を構成する方法の詳細については、[Configure ScalarDB for Cosmos DB for NoSQL](https://scalardb.scalar-labs.com/docs/latest/getting-started-with-scalardb#set-up-your-database-for-scalardb) を参照してください。 * **ScalarDL テーブル:** ScalarDL Schema Loader のカスタム値ファイルの設定方法の詳細については、[Configure a custom values file for ScalarDL Schema Loader](../helm-charts/configure-custom-values-scalardl-schema-loader.mdx) を参照してください。 -4. 次のように、ScalarDB Schema Loader または ScalarDL Schema Loader で `--repair-all` フラグを使用してストアド プロシージャを再作成します。 +4. 次のように、ScalarDB Schema Loader または ScalarDL Schema Loader で `--repair-all` フラグを使用してストアドプロシージャを再作成します。 * ScalarDB テーブル ```console - java -jar scalardb-schema-loader-.jar --config /path/to/ -f /path/to/ [--coordinator] --repair-all + java -jar scalardb-schema-loader-.jar --config /path/to/ -f /path/to/ [--coordinator] --repair-all ``` * ScalarDL Ledger テーブル ```console @@ -118,46 +119,46 @@ PITR 機能を使用する場合、Azure Cosmos DB は別のアカウントを ScalarDB Schema Loader でのテーブルの修復の詳細については、[Repair tables](https://scalardb.scalar-labs.com/docs/latest/schema-loader#repair-tables) を参照してください。 -5. 環境に応じて、必要に応じてテーブル構成を更新します。 復元されたアカウントの構成については、[Azure での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ (Azure Cosmos DB for NoSQL)](SetupDatabaseForAzure.mdx#azure-cosmos-db-for-nosql) を参照してください。 +5. 環境に応じて、必要に応じてテーブル構成を更新します。復元されたアカウントの構成については、[Azure での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ (Azure Cosmos DB for NoSQL)](SetupDatabaseForAzure.mdx#azure-cosmos-db-for-nosql) を参照してください。 ### Amazon RDS -PITR 機能を使用する場合、Amazon RDS は別のデータベース インスタンスを使用してデータを復元します。 したがって、カスタム値ファイル内のエンドポイント構成を更新する必要があります。 +PITR 機能を使用する場合、Amazon RDS は別のデータベースインスタンスを使用してデータを復元します。したがって、カスタム値ファイル内のエンドポイント構成を更新する必要があります。 #### ステップ -1. データベース インスタンスを復元します。 PITR を使用して Amazon RDS インスタンスを復元する方法の詳細については、Amazon の次の公式ドキュメントを参照してください。 +1. データベースインスタンスを復元します。PITR を使用して Amazon RDS インスタンスを復元する方法の詳細については、Amazon の次の公式ドキュメントを参照してください。 * [Restoring a DB instance to a specified time](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_PIT.html) * [Restoring a Multi-AZ DB cluster to a specified time](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_PIT.MultiAZDBCluster.html) -2. 環境に応じて、必要に応じてテーブル構成を更新します。 復元されたデータベース インスタンスの構成については、[AWS での ScalarDB/ScalarDL デプロイメント用のデータベースのセットアップ (Amazon RDS for MySQL、PostgreSQL、Oracle、および SQL Server)](SetupDatabaseForAWS.mdx#mysqlpostgresqloraclesql-server-用の-amazon-rds) を参照してください。 +2. 環境に応じて、必要に応じてテーブル構成を更新します。復元されたデータベースインスタンスの構成については、[AWS での ScalarDB/ScalarDL デプロイメント用のデータベースのセットアップ (Amazon RDS for MySQL、PostgreSQL、Oracle、および SQL Server)](SetupDatabaseForAWS.mdx#mysqlpostgresqloraclesql-server-用の-amazon-rds) を参照してください。 ### Amazon Aurora -PITR 機能を使用する場合、Amazon Aurora は別のデータベースクラスターを使用してデータを復元します。 したがって、カスタム値ファイル内のエンドポイント構成を更新する必要があります。 +PITR 機能を使用する場合、Amazon Aurora は別のデータベースクラスターを使用してデータを復元します。したがって、カスタム値ファイル内のエンドポイント構成を更新する必要があります。 #### ステップ -1. データベースクラスターを復元します。 PITR を使用して Amazon Aurora クラスターを復元する方法の詳細については。 Amazon の公式ドキュメント [Restoring a DB cluster to a specified time](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/aurora-pitr.html) を参照してください。 +1. データベースクラスターを復元します。PITR を使用して Amazon Aurora クラスターを復元する方法の詳細については。Amazon の公式ドキュメント [Restoring a DB cluster to a specified time](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/aurora-pitr.html) を参照してください。 -2. 環境に応じて、必要に応じてレプリカ (リーダー) を追加してデータベース クラスターをマルチ AZ クラスターにします。 +2. 環境に応じて、必要に応じてレプリカ (リーダー) を追加してデータベースクラスターをマルチ AZ クラスターにします。 - Amazon Aurora の PITR 機能は、マルチ AZ 構成を使用してデータベースクラスターを復元できません。 データベース クラスターをマルチ AZ クラスターとして復元する場合は、データベース クラスターの復元後にリーダーを追加する必要があります。 リーダーの追加方法の詳細については、Amazon の公式ドキュメント [Adding Aurora Replicas to a DB cluster](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/aurora-replicas-adding.html) を参照してください。 + Amazon Aurora の PITR 機能は、マルチ AZ 構成を使用してデータベースクラスターを復元できません。データベースクラスターをマルチ AZ クラスターとして復元する場合は、データベースクラスターの復元後にリーダーを追加する必要があります。リーダーの追加方法の詳細については、Amazon の公式ドキュメント [Adding Aurora Replicas to a DB cluster](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/aurora-replicas-adding.html) を参照してください。 -3. 環境に応じて、必要に応じてテーブル構成を更新します。 復元されたデータベースクラスターの構成については、[AWS での ScalarDB/ScalarDL デプロイメント用のデータベースのセットアップ (Amazon Aurora MySQL および Amazon Aurora PostgreSQL)](SetupDatabaseForAWS.mdx#amazon-aurora-mysql-と-amazon-aurora-postgresql) を参照してください。 +3. 環境に応じて、必要に応じてテーブル構成を更新します。復元されたデータベースクラスターの構成については、[AWS での ScalarDB/ScalarDL デプロイメント用のデータベースのセットアップ (Amazon Aurora MySQL および Amazon Aurora PostgreSQL)](SetupDatabaseForAWS.mdx#amazon-aurora-mysql-と-amazon-aurora-postgresql) を参照してください。 ### Azure Database for MySQL/PostgreSQL -PITR 機能を使用する場合、Azure Database for MySQL/PostgreSQL は別のサーバーを使用してデータを復元します。 したがって、カスタム値ファイル内のエンドポイント構成を更新する必要があります。 +PITR 機能を使用する場合、Azure Database for MySQL/PostgreSQL は別のサーバーを使用してデータを復元します。したがって、カスタム値ファイル内のエンドポイント構成を更新する必要があります。 #### ステップ -1. データベースサーバーを復元します。 PITR を使用して Azure Database for MySQL/PostgreSQL サーバーを復元する方法の詳細については、次を参照してください。 +1. データベースサーバーを復元します。PITR を使用して Azure Database for MySQL/PostgreSQL サーバーを復元する方法の詳細については、次を参照してください。 * [Point-in-time restore of a Azure Database for MySQL Flexible Server using Azure portal](https://learn.microsoft.com/en-us/azure/mysql/flexible-server/how-to-restore-server-portal) * [Backup and restore in Azure Database for PostgreSQL - Flexible Server](https://learn.microsoft.com/en-us/azure/postgresql/flexible-server/concepts-backup-restore) -2. 環境に応じて、必要に応じてテーブル構成を更新します。 復元されたデータベース サーバーの構成については、次を参照してください。 +2. 環境に応じて、必要に応じてテーブル構成を更新します。復元されたデータベースサーバーの構成については、次を参照してください。 * [Azure 上で ScalarDB/ScalarDL デプロイ用のデータベースをセットアップする (Azure Database for MySQL)](SetupDatabaseForAzure.mdx#azure-database-for-mysql) * [Azure 上で ScalarDB/ScalarDL デプロイ用のデータベースをセットアップする (Azure Database for PostgreSQL)](SetupDatabaseForAzure.mdx#azure-database-for-postgresql) diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/SetupDatabase.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/SetupDatabase.mdx index 139c74f0..4d778c82 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/SetupDatabase.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/SetupDatabase.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # ScalarDB/ScalarDL デプロイメント用のデータベースをセットアップする @@ -10,7 +11,7 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このガイドでは、クラウド サービス上で ScalarDB/ScalarDL を展開するためのデータベースをセットアップする方法について説明します。 +このガイドでは、クラウドサービス上で ScalarDB/ScalarDL を展開するためのデータベースをセットアップする方法について説明します。 * [AWS での ScalarDB/ScalarDL デプロイメント用のデータベースのセットアップ](SetupDatabaseForAWS.mdx) * [Azure 上で ScalarDB/ScalarDL デプロイメント用のデータベースをセットアップする](SetupDatabaseForAzure.mdx) diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/SetupDatabaseForAWS.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/SetupDatabaseForAWS.mdx index dfc16ae4..886bc251 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/SetupDatabaseForAWS.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/SetupDatabaseForAWS.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # AWS で ScalarDB/ScalarDL デプロイメント用のデータベースをセットアップする @@ -16,7 +17,7 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; ### 認証方法 -DynamoDB を使用する場合、ScalarDB/ScalarDL プロパティ ファイルに `REGION`、`ACCESS_KEY_ID`、および `SECRET_ACCESS_KEY` を次のように設定する必要があります。 +DynamoDB を使用する場合、ScalarDB/ScalarDL プロパティファイルに `REGION`、`ACCESS_KEY_ID`、および `SECRET_ACCESS_KEY` を次のように設定する必要があります。 ```properties scalar.db.contact_points= @@ -31,23 +32,23 @@ DynamoDB のプロパティの詳細については、次のドキュメント ### 必要な構成/手順 -DynamoDB はデフォルトで AWS で使用できます。 使用するために手動で何かを設定する必要はありません。 +DynamoDB はデフォルトで AWS で使用できます。使用するために手動で何かを設定する必要はありません。 ### オプションの構成/手順 #### ポイントインタイムリカバリを有効にする (運用環境で推奨) -DynamoDB のバックアップ/復元方法として PITR を有効にすることができます。 [ScalarDB Schema Loader](https://scalardb.scalar-labs.com/docs/latest/schema-loader) を使用してスキーマを作成すると、デフォルトでテーブルの PITR 機能が有効になります。 詳細については公式ドキュメントを参照してください。 +DynamoDB のバックアップ/復元方法として PITR を有効にすることができます。[ScalarDB Schema Loader](https://scalardb.scalar-labs.com/docs/latest/schema-loader) を使用してスキーマを作成すると、デフォルトでテーブルの PITR 機能が有効になります。詳細については公式ドキュメントを参照してください。 * [Point-in-time recovery for DynamoDB](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/PointInTimeRecovery.html) -ポイントインタイム リカバリ機能により自動的かつ継続的にバックアップが作成されるため、バックアップ操作のダウンタイム (一時停止期間) を短縮できるため、この機能をお勧めします。 Scalar 製品データのバックアップ/復元方法の詳細については、次のドキュメントを参照してください。 +ポイントインタイムリカバリ機能により自動的かつ継続的にバックアップが作成されるため、バックアップ操作のダウンタイム (一時停止期間) を短縮できるため、この機能をお勧めします。Scalar 製品データのバックアップ/復元方法の詳細については、次のドキュメントを参照してください。 * [Scalar 製品のバックアップ復元ガイド](BackupRestoreGuide.mdx) #### 監視を構成する (運用環境で推奨) -DynamoDB のネイティブ機能を使用して、DynamoDB のモニタリングとロギングを設定できます。 詳細については公式ドキュメントを参照してください。 +DynamoDB のネイティブ機能を使用して、DynamoDB のモニタリングとロギングを設定できます。詳細については公式ドキュメントを参照してください。 * [Monitoring and logging](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/monitoring.html) @@ -64,11 +65,11 @@ WAN 経由ではないプライベート内部接続によりシステムの安 #### 読み取り/書き込み容量の構成 (環境に応じてオプション) -要件に基づいて、DynamoDB テーブルの **読み取り/書き込み容量** を構成できます。 読み取り/書き込み容量の詳細については、公式ドキュメントを参照してください。 +要件に基づいて、DynamoDB テーブルの **読み取り/書き込み容量** を構成できます。読み取り/書き込み容量の詳細については、公式ドキュメントを参照してください。 * [Read/write capacity mode](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/HowItWorks.ReadWriteCapacityMode.html) -テーブルの作成時に、ScalarDB/DL Schema Loader を使用して読み取り/書き込み容量を構成できます。 ScalarDB/DL Schema Loader を使用して読み取り/書き込み容量 (RU) を構成する方法の詳細については、次のドキュメントを参照してください。 +テーブルの作成時に、ScalarDB/DL Schema Loader を使用して読み取り/書き込み容量を構成できます。ScalarDB/DL Schema Loader を使用して読み取り/書き込み容量 (RU) を構成する方法の詳細については、次のドキュメントを参照してください。 * [ScalarDB Schema Loader](https://scalardb.scalar-labs.com/docs/latest/schema-loader) @@ -76,7 +77,7 @@ WAN 経由ではないプライベート内部接続によりシステムの安 ### 認証方法 -RDS を使用する場合、ScalarDB/ScalarDL プロパティ ファイルに `JDBC_URL`、`USERNAME`、および `PASSWORD` を次のように設定する必要があります。 +RDS を使用する場合、ScalarDB/ScalarDL プロパティファイルに `JDBC_URL`、`USERNAME`、および `PASSWORD` を次のように設定する必要があります。 ```properties scalar.db.contact_points= @@ -85,15 +86,15 @@ scalar.db.password= scalar.db.storage=jdbc ``` -RDS(JDBCデータベース)のプロパティの詳細については、以下のドキュメントを参照してください。 +RDS (JDBCデータベース) のプロパティの詳細については、以下のドキュメントを参照してください。 * [Configure ScalarDB for JDBC databases](https://scalardb.scalar-labs.com/docs/latest/getting-started-with-scalardb#set-up-your-database-for-scalardb) ### 必要な構成/手順 -#### RDS データベース インスタンスを作成する +#### RDS データベースインスタンスを作成する -RDS データベース インスタンスを作成する必要があります。 詳細については公式ドキュメントを参照してください。 +RDS データベースインスタンスを作成する必要があります。詳細については公式ドキュメントを参照してください。 * [Configuring an Amazon RDS DB instance](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_RDS_Configuring.html) @@ -101,29 +102,29 @@ RDS データベース インスタンスを作成する必要があります。 #### 自動バックアップを有効にする (運用環境で推奨) -自動バックアップを有効にすることができます。 詳細については公式ドキュメントを参照してください。 +自動バックアップを有効にすることができます。詳細については公式ドキュメントを参照してください。 * [Working with backups](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_WorkingWithAutomatedBackups.html) -自動バックアップ機能によりポイントインタイムリカバリ機能が有効になるため、これをお勧めします。 データを特定の時点まで復元できます。 Scalar 製品で複数のデータベースを使用する場合、バックアップ操作のダウンタイム (一時停止時間) を短縮できます。 Scalar 製品データのバックアップ/復元方法の詳細については、次のドキュメントを参照してください。 +自動バックアップ機能によりポイントインタイムリカバリ機能が有効になるため、これをお勧めします。データを特定の時点まで復元できます。Scalar 製品で複数のデータベースを使用する場合、バックアップ操作のダウンタイム (一時停止時間) を短縮できます。Scalar 製品データのバックアップ/復元方法の詳細については、次のドキュメントを参照してください。 * [Scalar 製品のバックアップ復元ガイド](BackupRestoreGuide.mdx) #### 監視を構成する (運用環境で推奨) -RDS のネイティブ機能を使用して、RDS の監視とログ記録を構成できます。 詳細については公式ドキュメントを参照してください。 +RDS のネイティブ機能を使用して、RDS の監視とログ記録を構成できます。詳細については公式ドキュメントを参照してください。 * [Monitoring metrics in an Amazon RDS instance](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_Monitoring.html) * [Monitoring events, logs, and streams in an Amazon RDS DB instance](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_Monitor_Logs_Events.html) メトリクスとログは、運用環境で問題が発生したときにそれを調査するのに役立つため、これをお勧めします。 -#### パブリック アクセスを無効にする (運用環境で推奨) +#### パブリックアクセスを無効にする (運用環境で推奨) -パブリックアクセスはデフォルトでは無効になっています。 次のように、EKS クラスター上の Scalar 製品ポッドから RDS データベース インスタンスにアクセスできます。 +パブリックアクセスはデフォルトでは無効になっています。次のように、EKS クラスター上の Scalar 製品ポッドから RDS データベースインスタンスにアクセスできます。 -* EKS クラスターと同じ VPC 上に RDS データベース インスタンスを作成します。 -* [VPC peering](https://docs.aws.amazon.com/vpc/latest/peering/what-is-vpc-peering.html) を使用して、Scalar 製品デプロイの RDS 用 VPC と EKS クラスター用 VPC を接続します。 (// TODO: この機能を Scalar 製品でテストする必要があります。) +* EKS クラスターと同じ VPC 上に RDS データベースインスタンスを作成します。 +* [VPC peering](https://docs.aws.amazon.com/vpc/latest/peering/what-is-vpc-peering.html) を使用して、Scalar 製品デプロイの RDS 用 VPC と EKS クラスター用 VPC を接続します。(// TODO: この機能を Scalar 製品でテストする必要があります。) WAN 経由ではないプライベート内部接続によりシステムの安全性が高まるため、これをお勧めします。 @@ -131,7 +132,7 @@ WAN 経由ではないプライベート内部接続によりシステムの安 ### 認証方法 -Amazon Aurora を使用する場合、ScalarDB/ScalarDL プロパティ ファイルに `JDBC_URL`、`USERNAME`、および `PASSWORD` を次のように設定する必要があります。 +Amazon Aurora を使用する場合、ScalarDB/ScalarDL プロパティファイルに `JDBC_URL`、`USERNAME`、および `PASSWORD` を次のように設定する必要があります。 ```properties scalar.db.contact_points= @@ -148,7 +149,7 @@ Amazon Aurora (JDBC データベース) のプロパティの詳細について #### Amazon Aurora DB クラスターを作成する -Amazon Aurora DB クラスターを作成する必要があります。 詳細については公式ドキュメントを参照してください。 +Amazon Aurora DB クラスターを作成する必要があります。詳細については公式ドキュメントを参照してください。 * [Configuring your Amazon Aurora DB cluster](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/CHAP_AuroraSettingUp.html) @@ -156,9 +157,9 @@ Amazon Aurora DB クラスターを作成する必要があります。 詳細 #### バックアップ構成を構成します (環境に応じてオプション) -Amazon Aurora はデフォルトで自動的にバックアップを取得します。 バックアップ機能を手動で有効にする必要はありません。 +Amazon Aurora はデフォルトで自動的にバックアップを取得します。バックアップ機能を手動で有効にする必要はありません。 -バックアップ保持期間やバックアップウィンドウなどのバックアップ構成を変更する場合は、それらを構成できます。 詳細については公式ドキュメントを参照してください。 +バックアップ保持期間やバックアップウィンドウなどのバックアップ構成を変更する場合は、それらを構成できます。詳細については公式ドキュメントを参照してください。 * [Backing up and restoring an Amazon Aurora DB cluster](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/BackupRestoreAurora.html) @@ -168,18 +169,18 @@ Scalar 製品データのバックアップ/復元方法の詳細については #### 監視を構成する (運用環境で推奨) -Amazon Aurora のネイティブ機能を使用して、Amazon Aurora のモニタリングとロギングを設定できます。 詳細については公式ドキュメントを参照してください。 +Amazon Aurora のネイティブ機能を使用して、Amazon Aurora のモニタリングとロギングを設定できます。詳細については公式ドキュメントを参照してください。 * [Monitoring metrics in an Amazon Aurora cluster](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/MonitoringAurora.html) * [Monitoring events, logs, and streams in an Amazon Aurora DB cluster](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/CHAP_Monitor_Logs_Events.html) メトリクスとログは、運用環境で問題が発生したときにそれを調査するのに役立つため、これをお勧めします。 -#### パブリック アクセスを無効にする (運用環境で推奨) +#### パブリックアクセスを無効にする (運用環境で推奨) -パブリックアクセスはデフォルトでは無効になっています。 次のように、EKS クラスター上の Scalar 製品ポッドから Amazon Aurora DB クラスターにアクセスできます。 +パブリックアクセスはデフォルトでは無効になっています。次のように、EKS クラスター上の Scalar 製品ポッドから Amazon Aurora DB クラスターにアクセスできます。 * EKS クラスターと同じ VPC 上に Amazon Aurora DB クラスターを作成します。 -* [VPC peering](https://docs.aws.amazon.com/vpc/latest/peering/what-is-vpc-peering.html) を使用して、Scalar 製品デプロイメント用の Amazon Aurora DB クラスターの VPC と EKS クラスターの VPC を接続します。 (// TODO: この機能を Scalar 製品でテストする必要があります。) +* [VPC peering](https://docs.aws.amazon.com/vpc/latest/peering/what-is-vpc-peering.html) を使用して、Scalar 製品デプロイメント用の Amazon Aurora DB クラスターの VPC と EKS クラスターの VPC を接続します。(// TODO: この機能を Scalar 製品でテストする必要があります。) WAN 経由ではないプライベート内部接続によりシステムの安全性が高まるため、これをお勧めします。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/SetupDatabaseForAzure.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/SetupDatabaseForAzure.mdx index 00f79d77..26b7bfe7 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/SetupDatabaseForAzure.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/SetupDatabaseForAzure.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Azure で ScalarDB/ScalarDL デプロイ用のデータベースをセットアップする @@ -16,7 +17,7 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; ### 認証方法 -Cosmos DB for NoSQL を使用する場合は、ScalarDB/ScalarDL プロパティ ファイルで `COSMOS_DB_URI` と `COSMOS_DB_KEY` を次のように設定する必要があります。 +Cosmos DB for NoSQL を使用する場合は、ScalarDB/ScalarDL プロパティファイルで `COSMOS_DB_URI` と `COSMOS_DB_KEY` を次のように設定する必要があります。 ```properties scalar.db.contact_points= @@ -32,13 +33,13 @@ Cosmos DB for NoSQL のプロパティの詳細については、次のドキュ #### Azure Cosmos DB アカウントを作成する -NoSQL (コア) API を使用して Azure Cosmos DB アカウントを作成する必要があります。 **Capacity mode**を作成するときは、**Provisioned throughput**として設定する必要があります。 詳細については公式ドキュメントを参照してください。 +NoSQL (コア) API を使用して Azure Cosmos DB アカウントを作成する必要があります。**Capacity mode**を作成するときは、**Provisioned throughput**として設定する必要があります。詳細については公式ドキュメントを参照してください。 * [Quickstart: Create an Azure Cosmos DB account, database, container, and items from the Azure portal](https://learn.microsoft.com/en-us/azure/cosmos-db/nosql/quickstart-portal) #### デフォルトの整合性構成を構成する -**Default consistency level**を**Strong**に設定する必要があります。 詳細については公式ドキュメントを参照してください。 +**Default consistency level**を**Strong**に設定する必要があります。詳細については公式ドキュメントを参照してください。 * [Configure the default consistency level](https://learn.microsoft.com/en-us/azure/cosmos-db/nosql/how-to-manage-consistency#config/ure-the-default-consistency-level) @@ -46,37 +47,37 @@ NoSQL (コア) API を使用して Azure Cosmos DB アカウントを作成す #### バックアップ構成を構成する (実稼働環境で推奨) -PITR の **Backup modes**を **Continuous backup mode**として構成できます。 詳細については公式ドキュメントを参照してください。 +PITR の **Backup modes**を **Continuous backup mode**として構成できます。詳細については公式ドキュメントを参照してください。 * [Backup modes](https://learn.microsoft.com/en-us/azure/cosmos-db/online-backup-and-restore#backup-modes) -継続バックアップ モードでは自動的かつ継続的にバックアップが取得されるため、バックアップ操作のダウンタイム (一時停止期間) を短縮できるため、このモードをお勧めします。 Scalar 製品データのバックアップ/復元方法の詳細については、次のドキュメントを参照してください。 +継続バックアップモードでは自動的かつ継続的にバックアップが取得されるため、バックアップ操作のダウンタイム (一時停止期間) を短縮できるため、このモードをお勧めします。Scalar 製品データのバックアップ/復元方法の詳細については、次のドキュメントを参照してください。 * [Scalar 製品のバックアップ復元ガイド](BackupRestoreGuide.mdx) -#### Configure monitoring (Recommended in the production environment) +#### 監視を構成する (運用環境で推奨) -You can configure the monitoring of Cosmos DB using its native feature. Please refer to the official document for more details. +Cosmos DB の監視は、ネイティブ機能を使用して構成できます。詳細については、公式ドキュメントを参照してください。 -* [Monitor Azure Cosmos DB](https://learn.microsoft.com/en-us/azure/cosmos-db/monitor) +* [Azure Cosmos DB を監視する](https://learn.microsoft.com/en-us/azure/cosmos-db/monitor) -It is recommended since the metrics and logs help you to investigate some issues in the production environment when they happen. +メトリックとログは、運用環境で問題が発生したときに調査するのに役立つため、推奨されます。 -#### サービス エンドポイントを有効にする (運用環境で推奨) +#### サービスエンドポイントを有効にする (運用環境で推奨) -仮想ネットワーク (VNet) の特定のサブネットからのアクセスのみを許可するように Azure Cosmos DB アカウントを構成できます。 詳細については公式ドキュメントを参照してください。 +仮想ネットワーク (VNet) の特定のサブネットからのアクセスのみを許可するように Azure Cosmos DB アカウントを構成できます。詳細については公式ドキュメントを参照してください。 * [Configure access to Azure Cosmos DB from virtual networks (VNet)](https://learn.microsoft.com/en-us/azure/cosmos-db/how-to-configure-vnet-service-endpoint) WAN 経由ではないプライベート内部接続によりシステムの安全性が高まるため、これをお勧めします。 -#### リクエスト ユニットを構成します (環境に応じてオプション) +#### リクエストユニットを構成します (環境に応じてオプション) -要件に基づいて Cosmos DB の **Request Units** を構成できます。 リクエスト単位の詳細については公式ドキュメントを参照してください。 +要件に基づいて Cosmos DB の **Request Units** を構成できます。リクエスト単位の詳細については公式ドキュメントを参照してください。 * [Request Units in Azure Cosmos DB](https://learn.microsoft.com/en-us/azure/cosmos-db/request-units) -テーブルの作成時に、ScalarDB/DL Schema Loader を使用してリクエスト ユニットを構成できます。 ScalarDB/DL Schema Loader を使用してリクエスト ユニット (RU) を構成する方法の詳細については、次のドキュメントを参照してください。 +テーブルの作成時に、ScalarDB/DL Schema Loader を使用してリクエストユニットを構成できます。ScalarDB/DL Schema Loader を使用してリクエストユニット (RU) を構成する方法の詳細については、次のドキュメントを参照してください。 * [ScalarDB Schema Loader](https://scalardb.scalar-labs.com/docs/latest/schema-loader) @@ -84,7 +85,7 @@ WAN 経由ではないプライベート内部接続によりシステムの安 ### 認証方法 -Azure Database for MySQL を使用する場合は、ScalarDB/ScalarDL プロパティ ファイルで `JDBC_URL`、`USERNAME`、および `PASSWORD` を次のように設定する必要があります。 +Azure Database for MySQL を使用する場合は、ScalarDB/ScalarDL プロパティファイルで `JDBC_URL`、`USERNAME`、および `PASSWORD` を次のように設定する必要があります。 ```properties scalar.db.contact_points= @@ -99,13 +100,13 @@ Azure Database for MySQL (JDBC データベース) のプロパティの詳細 ### 必要な構成/手順 -#### データベース サーバーを作成する +#### データベースサーバーを作成する -データベースサーバーを作成する必要があります。 詳細については公式ドキュメントを参照してください。 +データベースサーバーを作成する必要があります。詳細については公式ドキュメントを参照してください。 * [Quickstart: Use the Azure portal to create an Azure Database for MySQL Flexible Server](https://learn.microsoft.com/en-us/azure/mysql/flexible-server/quickstart-create-server-portal) -導入には **Single Server** または **Flexible Server** を選択できます。 ただし、Azure では Flexible Server が推奨されます。 このドキュメントは、Flexible Server の使用を前提としています。 導入モデルの詳細については、公式ドキュメントを参照してください。 +導入には **Single Server** または **Flexible Server** を選択できます。ただし、Azure では Flexible Server が推奨されます。このドキュメントは、Flexible Server の使用を前提としています。導入モデルの詳細については、公式ドキュメントを参照してください。 * [What is Azure Database for MySQL?](https://learn.microsoft.com/en-us/azure/mysql/single-server/overview#deployment-models) @@ -113,9 +114,9 @@ Azure Database for MySQL (JDBC データベース) のプロパティの詳細 #### バックアップ構成を構成します (環境に応じてオプション) -Azure Database for MySQL は、既定でバックアップを取得します。 バックアップ機能を手動で有効にする必要はありません。 +Azure Database for MySQL は、既定でバックアップを取得します。バックアップ機能を手動で有効にする必要はありません。 -バックアップの保持期間など、一部のバックアップ構成を変更する場合は、それを構成できます。 詳細については公式ドキュメントを参照してください。 +バックアップの保持期間など、一部のバックアップ構成を変更する場合は、それを構成できます。詳細については公式ドキュメントを参照してください。 * [Backup and restore in Azure Database for MySQL Flexible Server](https://learn.microsoft.com/en-us/azure/mysql/flexible-server/concepts-backup-restore) @@ -125,22 +126,22 @@ Scalar 製品データのバックアップ/復元方法の詳細については #### 監視を構成する (運用環境で推奨) -Azure Database for MySQL のネイティブ機能を使用して、その監視を構成できます。 詳細については公式ドキュメントを参照してください。 +Azure Database for MySQL のネイティブ機能を使用して、その監視を構成できます。詳細については公式ドキュメントを参照してください。 * [Monitor Azure Database for MySQL Flexible Server](https://learn.microsoft.com/en-us/azure/mysql/flexible-server/concepts-monitoring) メトリクスとログは、運用環境で問題が発生したときにそれを調査するのに役立つため、これをお勧めします。 -#### パブリック アクセスを無効にする (運用環境で推奨) +#### パブリックアクセスを無効にする (運用環境で推奨) -**Private access (VNet Integration)** を **Connectivity method** として構成できます。 詳細については公式ドキュメントを参照してください。 +**Private access (VNet Integration)** を **Connectivity method** として構成できます。詳細については公式ドキュメントを参照してください。 * [Connectivity and networking concepts for Azure Database for MySQL - Flexible Server](https://learn.microsoft.com/en-us/azure/mysql/flexible-server/concepts-networking) -次のように、AKS クラスター上の Scalar 製品ポッドからデータベース サーバーにアクセスできます。 +次のように、AKS クラスター上の Scalar 製品ポッドからデータベースサーバーにアクセスできます。 -* AKS クラスターと同じ VNet 上にデータベース サーバーを作成します。 -* [Virtual network peering](https://learn.microsoft.com/en-us/azure/virtual-network/virtual-network-peering-overview) を使用して、Scalar 製品デプロイのデータベース サーバー用の VNet と AKS クラスター用の VNet を接続します。 (// TODO: この機能を Scalar 製品でテストする必要があります。) +* AKS クラスターと同じ VNet 上にデータベースサーバーを作成します。 +* [Virtual network peering](https://learn.microsoft.com/en-us/azure/virtual-network/virtual-network-peering-overview) を使用して、Scalar 製品デプロイのデータベースサーバー用の VNet と AKS クラスター用の VNet を接続します。(// TODO: この機能を Scalar 製品でテストする必要があります。) WAN 経由ではないプライベート内部接続によりシステムの安全性が高まるため、これをお勧めします。 @@ -148,7 +149,7 @@ WAN 経由ではないプライベート内部接続によりシステムの安 ### 認証方法 -Azure Database for PostgreSQL を使用する場合は、ScalarDB/ScalarDL プロパティ ファイルで `JDBC_URL`、`USERNAME`、および `PASSWORD` を次のように設定する必要があります。 +Azure Database for PostgreSQL を使用する場合は、ScalarDB/ScalarDL プロパティファイルで `JDBC_URL`、`USERNAME`、および `PASSWORD` を次のように設定する必要があります。 ```properties scalar.db.contact_points= @@ -163,13 +164,13 @@ Azure Database for PostgreSQL (JDBC データベース) のプロパティの詳 ### 必要な構成/手順 -#### データベース サーバーを作成する +#### データベースサーバーを作成する -データベースサーバーを作成する必要があります。 詳細については公式ドキュメントを参照してください。 +データベースサーバーを作成する必要があります。詳細については公式ドキュメントを参照してください。 * [Quickstart: Create an Azure Database for PostgreSQL - Flexible Server in the Azure portal](https://learn.microsoft.com/en-us/azure/postgresql/flexible-server/quickstart-create-server-portal) -導入には **Single Server** または **Flexible Server** を選択できます。 ただし、Azure では Flexible Server が推奨されます。 このドキュメントは、Flexible Server の使用を前提としています。 導入モデルの詳細については、公式ドキュメントを参照してください。 +導入には **Single Server** または **Flexible Server** を選択できます。ただし、Azure では Flexible Server が推奨されます。このドキュメントは、Flexible Server の使用を前提としています。導入モデルの詳細については、公式ドキュメントを参照してください。 * [What is Azure Database for PostgreSQL?](https://learn.microsoft.com/en-us/azure/postgresql/single-server/overview#deployment-models) @@ -177,9 +178,9 @@ Azure Database for PostgreSQL (JDBC データベース) のプロパティの詳 #### バックアップ構成を構成します (環境に応じてオプション) -Azure Database for PostgreSQL は、既定でバックアップを取得します。 バックアップ機能を手動で有効にする必要はありません。 +Azure Database for PostgreSQL は、既定でバックアップを取得します。バックアップ機能を手動で有効にする必要はありません。 -バックアップの保持期間など、一部のバックアップ構成を変更する場合は、それを構成できます。 詳細については公式ドキュメントを参照してください。 +バックアップの保持期間など、一部のバックアップ構成を変更する場合は、それを構成できます。詳細については公式ドキュメントを参照してください。 * [Backup and restore in Azure Database for PostgreSQL - Flexible Server](https://learn.microsoft.com/en-us/azure/postgresql/flexible-server/concepts-backup-restore) @@ -189,21 +190,21 @@ Scalar 製品データのバックアップ/復元方法の詳細については #### 監視を構成する (運用環境で推奨) -Azure Database for PostgreSQL のネイティブ機能を使用して、その監視を構成できます。 詳細については公式ドキュメントを参照してください。 +Azure Database for PostgreSQL のネイティブ機能を使用して、その監視を構成できます。詳細については公式ドキュメントを参照してください。 * [Monitor metrics on Azure Database for PostgreSQL - Flexible Server](https://learn.microsoft.com/en-us/azure/postgresql/flexible-server/concepts-monitoring) メトリクスとログは、運用環境で問題が発生したときにそれを調査するのに役立つため、これをお勧めします。 -#### パブリック アクセスを無効にする (運用環境で推奨) +#### パブリックアクセスを無効にする (運用環境で推奨) -**Private access (VNet Integration)** を **Connectivity method** として構成できます。 詳細については公式ドキュメントを参照してください。 +**Private access (VNet Integration)** を **Connectivity method** として構成できます。詳細については公式ドキュメントを参照してください。 * [Networking overview for Azure Database for PostgreSQL - Flexible Server](https://learn.microsoft.com/en-us/azure/postgresql/flexible-server/concepts-networking) -次のように、AKS クラスター上の Scalar 製品ポッドからデータベース サーバーにアクセスできます。 +次のように、AKS クラスター上の Scalar 製品ポッドからデータベースサーバーにアクセスできます。 -* AKS クラスターと同じ VNet 上にデータベース サーバーを作成します。 -* [Virtual network peering](https://learn.microsoft.com/en-us/azure/virtual-network/virtual-network-peering-overview) を使用して、Scalar 製品デプロイのデータベース サーバー用の VNet と AKS クラスター用の VNet を接続します。 (// TODO: この機能を Scalar 製品でテストする必要があります。) +* AKS クラスターと同じ VNet 上にデータベースサーバーを作成します。 +* [Virtual network peering](https://learn.microsoft.com/en-us/azure/virtual-network/virtual-network-peering-overview) を使用して、Scalar 製品デプロイのデータベースサーバー用の VNet と AKS クラスター用の VNet を接続します。(// TODO: この機能を Scalar 製品でテストする必要があります。) WAN 経由ではないプライベート内部接続によりシステムの安全性が高まるため、これをお勧めします。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/alerts/Envoy.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/alerts/Envoy.mdx index 441ba8b6..4804ac8b 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/alerts/Envoy.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/alerts/Envoy.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Envoy アラート @@ -12,7 +13,7 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; ## EnvoyClusterDown -これは最も重要なアラートであり、Envoy クラスターがリクエストを処理できないことを示します。 このアラートは最優先で処理する必要があります。 +これは最も重要なアラートであり、Envoy クラスターがリクエストを処理できないことを示します。このアラートは最優先で処理する必要があります。 ### アラートの例 @@ -43,12 +44,12 @@ Alert: Envoy cluster is down - critical * `kubectl get deployments. prod-scalardl-envoy` で設定されたレプリカの数を確認します。 * `kubectl describe deployments. prod-scalardl-envoy` はデプロイメントを説明するために設定されたレプリカの数を確認します。 * `kubectl get node -o wide` でノードのステータスを確認します。 -* ログ サーバーをチェックして、モニター サーバー `/log/kubernetes//-/kube.log` 上の kubernetes ログで障害の根本原因を特定します。 -* 既知の問題があるかどうかをクラウド プロバイダーに確認してください。 たとえば、Azure の彫像は [ここ](https://status.azure.com/en-us/status) で確認できます。 +* ログサーバーをチェックして、モニターサーバー `/log/kubernetes//-/kube.log` 上の kubernetes ログで障害の根本原因を特定します。 +* 既知の問題があるかどうかをクラウドプロバイダーに確認してください。たとえば、Azure の彫像は[ここ](https://status.azure.com/en-us/status)で確認できます。 ## EnvoyClusterDegraded -このアラートは、Kubernetes クラスターが Envoy ポッドを開始できないかどうかを示します。これは、クラスターにデプロイメントを実行するための十分なリソースがない、または 1 つまたは複数の Kubernetes ノードが失われたことを意味します。 +このアラートは、Kubernetes クラスターが Envoy ポッドを開始できないかどうかを示します。これは、クラスターにデプロイメントを実行するための十分なリソースがない、または1つまたは複数の Kubernetes ノードが失われたことを意味します。 ### アラートの例 @@ -76,11 +77,11 @@ Alert: Envoy cluster is running in a degraded mode - warning ### 必要なアクション -* ログ サーバーをチェックして、モニター サーバー `/log/kubernetes//-/kube.log` または `kubectl logs prod-scalardl-envoy-xxxx-yyyy` 上の kubernetes ログに関する障害の根本原因を特定します。 +* ログサーバーをチェックして、モニターサーバー `/log/kubernetes//-/kube.log` または `kubectl logs prod-scalardl-envoy-xxxx-yyyy` 上の kubernetes ログに関する障害の根本原因を特定します。 * `kubectl describe deployments prod-scalardl-envoy` で kubernetes のデプロイメントを確認します。 -* `kubectl get replicasets.apps` でレプリカ セットを確認します。 +* `kubectl get replicasets.apps` でレプリカセットを確認します。 * `kubectl get node -o wide` でノードのステータスを確認します。 -* 既知の問題があるかどうかをクラウド プロバイダーに確認してください。 たとえば、Azure の彫像は [ここ](https://status.azure.com/en-us/status) で確認できます。 +* 既知の問題があるかどうかをクラウドプロバイダーに確認してください。たとえば、Azure の彫像は[ここ](https://status.azure.com/en-us/status)で確認できます。 ## EnvoyPodsPending diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/alerts/Ledger.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/alerts/Ledger.mdx index 5cd3fe9e..23bd89ab 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/alerts/Ledger.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/alerts/Ledger.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsJapanese --- # Ledger アラート @@ -9,7 +10,7 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; ## LedgerClusterDown -これは最も重要なアラートであり、Ledger クラスターがリクエストを処理できないことを示します。 このアラートは最優先で処理する必要があります。 +これは最も重要なアラートであり、Ledger クラスターがリクエストを処理できないことを示します。このアラートは最優先で処理する必要があります。 ### アラートの例 @@ -40,12 +41,12 @@ Alert: Ledger cluster is down - critical * `kubectl get deployments. prod-scalardl-ledger` で設定されたレプリカの数を確認します。 * `kubectl describe deployments. prod-scalardl-ledger` はデプロイメントを説明するために設定されたレプリカの数を確認します。 * `kubectl get node -o wide` でノードのステータスを確認します。 -* ログ サーバーをチェックして、モニター サーバー `/log/kubernetes//-/kube.log` 上の kubernetes ログで障害の根本原因を特定します。 -* 既知の問題があるかどうかをクラウド プロバイダーに確認してください。 たとえば、Azure の彫像は [ここ](https://status.azure.com/en-us/status) で確認できます。 +* ログサーバーをチェックして、モニターサーバー `/log/kubernetes//-/kube.log` 上の kubernetes ログで障害の根本原因を特定します。 +* 既知の問題があるかどうかをクラウドプロバイダーに確認してください。たとえば、Azure の彫像は[ここ](https://status.azure.com/en-us/status)で確認できます。 ## LedgerClusterDegraded -このアラートは、Kubernetes クラスターが Ledger ポッドを開始できないかどうかを示します。これは、クラスターにデプロイメントを実行するための十分なリソースがない、または 1 つまたは複数の Kubernetes ノードが失われたことを意味します。 +このアラートは、Kubernetes クラスターが Ledger ポッドを開始できないかどうかを示します。これは、クラスターにデプロイメントを実行するための十分なリソースがない、または1つまたは複数の Kubernetes ノードが失われたことを意味します。 ### アラートの例 @@ -73,11 +74,11 @@ Alert: Ledger cluster is running in a degraded mode - warning ### 必要なアクション -* ログ サーバーをチェックして、モニター サーバー `/log/kubernetes//-/kube.log` 上の kubernetes ログに関する障害の根本原因を特定します。 +* ログサーバーをチェックして、モニターサーバー `/log/kubernetes//-/kube.log` 上の kubernetes ログに関する障害の根本原因を特定します。 * `kubectl describe deployments prod-scalardl-ledger` で kubernetes のデプロイメントを確認します。 -* `kubectl get replicasets.apps` でレプリカ セットを確認します。 +* `kubectl get replicasets.apps` でレプリカセットを確認します。 * `kubectl get node -o wide` でノードのステータスを確認します。 -* 既知の問題があるかどうかをクラウド プロバイダーに確認してください。 たとえば、Azure の彫像は [ここ](https://status.azure.com/en-us/status) で確認できます。 +* 既知の問題があるかどうかをクラウドプロバイダーに確認してください。たとえば、Azure の彫像は[ここ](https://status.azure.com/en-us/status)で確認できます。 ## LedgerPodsPending diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/alerts/README.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/alerts/README.mdx index 72f56b37..5f4ddb73 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/alerts/README.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-kubernetes/alerts/README.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Scalar アラート diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-manager/overview.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-manager/overview.mdx index be3ad1e6..04ee30f7 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-manager/overview.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalar-manager/overview.mdx @@ -1,47 +1,44 @@ --- tags: - Enterprise Option +displayed_sidebar: docsEnglish --- -# Scalar Manager 概要 +# Scalar Manager Overview -import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; +Scalar Manager is a centralized management and monitoring solution for ScalarDB and ScalarDL within Kubernetes cluster environments. +It simplifies the operational tasks associated with these products by aggregating essential functionalities into a graphical user interface (GUI). - +## Why Scalar Manager? -Scalar Manager は、Kubernetes クラスタ環境内で ScalarDB および ScalarDL の集中管理および監視ソリューションです。 -これらの製品に関連する運用タスクを、グラフィカルユーザーインターフェイスに主要な機能を集約することで簡素化します。 +Before Scalar Manager was released, you would need to use various command-line tools and third-party solutions individually to manage and monitor ScalarDB and ScalarDL deployments. +For example, `kubectl` is often used to check deployment status, the Prometheus stack for monitoring metrics, the Loki stack for log analysis, and Scalar's proprietary CLI tool for pausing Scalar products to ensure transactional consistency between multiple databases. +This constellation of tools presented a steep learning curve and lacked a unified interface, resulting in inefficient workflows for performing routine management tasks or troubleshooting issues. -## なぜ Scalar Manager なのか? +Scalar Manager mitigates these pain points by aggregating essential functionalities into a single, user-friendly GUI. +With Scalar Manager, you can reduce the time and effort needed for management and monitoring, allowing you to focus on business development and operations. -Scalar Manager がリリースされる前は、ユーザーは ScalarDB および ScalarDL のデプロイメントを管理および監視するために、さまざまなコマンドラインツールやサードパーティソリューションを個別に使用する必要がありました。 -例えば、ユーザーはデプロイメントのステータスを確認するために kubectl を使用し、メトリクスの監視には Prometheus スタック、ログ分析には Loki スタックを使用し、複数のデータベース間でトランザクションの一貫性を確保するために Scalar の独自の CLI ツールを使用して Scalar 製品を一時停止していました。 -これらのツールの組み合わせは、習得の難易度が高く、統一されたインターフェースが欠けていたため、日常の管理タスクやトラブルシューティングの際に効率的なワークフローを提供できませんでした。 +## Key features -Scalar Manager は、これらの問題点を解消し、主要な機能を単一のユーザーフレンドリーな GUI に集約することで、管理および監視に必要な時間と労力を削減します。 -これにより、ユーザーはビジネスの開発や運用に集中できるようになります。 +At its core, Scalar Manager provides the following features. -## 主な機能 +### Centralized cluster visualization -Scalar Manager は、以下の機能をユーザーに提供します。 - -### 集中化されたクラスターの可視化 - -ユーザーは、クラスターの健康状態、pod ログ、ハードウェアの使用状況、リクエスト毎秒などのパフォーマンスメトリクス、および統合された Grafana ダッシュボードを介して時系列データの詳細な可視化について、リアルタイムのメトリクスを迅速に取得できます。 +You can quickly gain real-time metrics about cluster health, pod logs, hardware usage, performance metrics like requests per second, and deep visibility into time-series data via integrated Grafana dashboards. ![dashboard-cluster](images/dashboard-cluster.png) ![dashboard-pod-list](images/dashboard-pod-list.png) -Pod ログとメトリクスは、リアルタイムまたは時系列で表示することができます。 +You can view pod logs and metrics in real time or in time series. ![logs](images/logs.png) ![metrics](images/metrics.png) -### 簡素化されたジョブの一時停止管理 +### Streamlined pausing job management -ユーザーは、トランザクションの一貫性を確保するために、一時停止ジョブを実行またはスケジュールし、スケジュールされたジョブを確認および管理し、直感的な GUI 内で一時停止状態を監視することができます。 +You can execute or schedule pausing jobs to ensure transactional consistency, review and manage scheduled jobs, and monitor paused states within an intuitive GUI. ![create-pauses](images/backup-and-restore-create-pauses.png) ![check-pauses](images/backup-and-restore-check-pauses.png) -さまざまなツールやソリューションを使用して ScalarDB および ScalarDL を管理および監視し続けることはできますが、Scalar Manager は運用効率とユーザーエクスペリエンスを向上させるよりシンプルなアプローチを提供します。 +Although you can continue using various tools and solutions to manage or monitor ScalarDB and ScalarDL, Scalar Manager offers a more straightforward approach that enhances operational efficiency and user experience. diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-data-loader/easy-to-start.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-data-loader/easy-to-start.mdx deleted file mode 100644 index 4866fce7..00000000 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-data-loader/easy-to-start.mdx +++ /dev/null @@ -1,40 +0,0 @@ ---- -tags: - - Community - - Enterprise Standard - - Enterprise Premium ---- - -# ScalarDB Data Loader API - -import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; - - - -このドキュメントでは、ScalarDB Data Loader API を開始する方法について説明します。 - -## ScalarDB Data Loader API を起動します - -* `scalardb-data-loader` リポジトリをクローンします -``` -git clone https://github.com/scalar-labs/scalardb-data-loader.git -``` - -* `scalardb-data-loader` ディレクトリに移動します - -* 適切なクラウド認証情報を使用して、`fixtures/test/conf/application.yml` ファイル内の次のプロパティを更新します - * storage.jclouds.provider - * storage.jclouds.identity - * storage.jclouds.credential - * storage.jclouds.container - -* `scalardb-data-loader-api` Docker イメージをビルドします -``` -./gradlew :api:docker -``` - -* `scalardb-data-loader-api` を起動します -``` -cd fixtures/test -docker-compose up -``` diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-data-loader/getting-started-export.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-data-loader/getting-started-export.mdx deleted file mode 100644 index bac1bdca..00000000 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-data-loader/getting-started-export.mdx +++ /dev/null @@ -1,62 +0,0 @@ ---- -tags: - - Community - - Enterprise Standard - - Enterprise Premium ---- - -# データのエクスポート - -import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; - - - -このドキュメントでは、ScalarDB Data Loader のエクスポート機能について説明します。 - -## 機能 - -ScalarDB Data Loader を使用すると、次の形式でデータをエクスポートできます。 - -- JSON -- JSONLines -- CSV - -各エクスポートでは、Data Loader の実行時に指定された CLI 引数に基づいて ScalarDB スキャン操作が実行されます。 - -## 使用方法 - -Data Loader のエクスポート機能は、次の最小限の設定で開始できます。 - -```console -./scalardb-data-loader export --config scalardb.properties --namespace namespace --table tableName -``` - -- --config: 接続プロパティファイルへのパス -- --namespace: データを含むテーブルの名前空間 -- --table: データを含むテーブルの名前 - -デフォルトでは、`--output-file` 引数も省略されている場合、Data Loader は作業ディレクトリに出力ファイルを作成します。 - -### コマンドラインオプション - -ScalarDB Data Loader で使用できるオプションの一覧を次に示します。 - -| オプション | 説明 | 使用方法 | -| ----------------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------ | ------------------------------------------------------ | -| --config | 設定ファイルへのパス。省略すると、ツールは現在のフォルダーで `scalardb.properties` という名前のファイルを検索します。 | `scalardb-data-loader --config scalardb.properties` | -| --namespace | テーブルデータをエクスポートする名前空間。必須。 | `scalardb-data-loader --namespace namespace` | -| --table | データをエクスポートするテーブルの名前。必須。 | `scalardb-data-loader --table tableName` | -| --key | 特定のパーティションキーのデータをエクスポートします。デフォルトでは、指定されたテーブルのすべてのデータがエクスポートされます。 | `scalardb-data-loader --key columnName=value` | -| --sort | 並べ替える列を指定します。列はクラスタリングキーである必要があります。引数を繰り返して複数の並べ替えを行うことができます。このオプションは `--key` にのみ適用されます。 | `scalardb-data-loader --sort columnName=desc` | -| --projection | 投影を指定してエクスポートする列を制限します。引数を繰り返して複数の投影を指定できます。 | `scalardb-data-loader --projection columnName` | -| --start | スキャン開始をマークするクラスタリングキー。このオプションは `--key` にのみ適用されます。 | `scalardb-data-loader --start columnName=value` | -| --start-exclusive | スキャン開始が排他的かどうか。省略した場合、デフォルト値は `false` です。このオプションは `--key` にのみ適用されます。 | `scalardb-data-loader --start-exclusive` | -| --end | スキャン終了をマークするクラスタリングキー。このオプションは `--key` にのみ適用されます。 | `scalardb-data-loader --end columnName=value` | -| --end-exclusive | スキャン開始が排他的かどうか。省略した場合、デフォルト値は `false` です。このオプションは `--key` にのみ適用されます。 | `scalardb-data-loader --end-exclusive` | -| --limit | スキャンの結果を制限します。省略した場合、デフォルト値は `0` で、制限がないことを意味します。 | `scalardb-data-loader --limit 1000` | -| --output-file | 出力ファイルの名前とパス。省略した場合、ツールは現在のフォルダーに次の名前形式でファイルを保存します:
`export_namespace.tableName_timestamp.json` または `export_namespace.tableName_timestamp.csv`

出力フォルダーが存在する必要があります。dataloader は出力フォルダーを作成しません。 | `scalardb-data-loader --output-file ./out/output.json` | -| --format | 出力形式。デフォルトでは `json` が選択されます。 | `scalardb-data-loader --format json` | -| --metadata | `true` に設定すると、トランザクションメタデータがエクスポートに含まれます。デフォルトでは `false` に設定されています。 | `scalardb-data-loader --metadata` | -| --delimiter | CSV ファイルで使用される区切り文字。デフォルト値は `;` です。 | `scalardb-data-loader --delimiter ;` | -| --no-headers | CSV ファイルからヘッダー行を除外します。デフォルトは `false` です。 | `scalardb-data-loader --no-headers` | -| --threads | 同時処理のスレッド数。 | `scalardb-data-loader --threads 500` | diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-data-loader/getting-started-import.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-data-loader/getting-started-import.mdx deleted file mode 100644 index e40d579d..00000000 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/current/scalardb-data-loader/getting-started-import.mdx +++ /dev/null @@ -1,276 +0,0 @@ ---- -tags: - - Community - - Enterprise Standard - - Enterprise Premium ---- - -# データのインポート - -import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; - - - -このドキュメントでは、ScalarDB Data Loader のインポート機能について説明します。 - -## 機能 - -- JSON または JSONLines ファイルからデータをインポート -- ソースフィールド名マッピングに基づく自動データマッピング -- JSON 制御ファイルによるカスタムデータマッピング -- 1 つのレコードまたは行から複数​​のテーブルにデータをインポート -- INSERT、UPDATE、UPSERT のサポート - -## 使用方法 - -Data Loader のインポート機能は、次の最小限の設定で開始できます: - -```console -./scalardb-data-loader import --config scalardb.properties --namespace namespace --table tableName -``` - -上記の設定により、制御ファイルが使用されず、データマッピングが自動的に適用されるインポートプロセスが開始されます。 - -新規または既存のデータを正常にインポートするには、次の手順を実行してください - -- インポートする必要があるデータを含むソースファイルを準備します。 - -- 適切なインポートモードを選択します。デフォルトでは、インポートは `upsert` モードで実行されます。つまり、新しい場合はデータが挿入され、パーティションキーやクラスタリングキーが見つかった場合は更新されます。その他のオプションは、`insert` モードまたは `update` モードです。 - -- データをインポートする正しい `namespace` および `table` 名を見つけます。 - -- 各データ行に対して `all required columns` チェックを実行するかどうかを決定します。有効にすると、列が欠落しているデータ行は失敗として扱われ、インポートされません。 - -- `success` および `failed` 出力ファイルのパス名を指定します。デフォルトでは、Data Loader は作業ディレクトリにファイルを作成します。 - -- JSON データを処理する場合、成功または失敗のログファイルの JSON 出力を `pretty print` にするかどうかを決定します。デフォルトでは、このオプションはパフォーマンスのために無効になっています - -- 必要に応じて `threads` 引数を指定してパフォーマンスを調整します - -- コマンドラインからインポートを実行して、データのインポートを開始します。実行中の ScalarDB インスタンスに応じて、ScalarDB Data Loader を正しい `storage` または `transaction` モードで実行してください。 - -### コマンドラインオプション - -ScalarDB Data Loader で使用できるオプションの一覧を次に示します。 - -| オプション | 説明 | 使用方法 | -|---------------------------------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|-------------------------------------------------------------| -| --mode | ScalarDB の実行モード。省略した場合、デフォルト値は `storage` です。 | `scalardb-data-loader --mode transaction` | -| --config | 設定ファイルへのパス。省略した場合、ツールは現在のフォルダーで `scalardb.properties` という名前のファイルを検索します。 | `scalardb-data-loader --config scalardb.properties` | -| --namespace | テーブルデータをエクスポートする名前空間。制御ファイルが指定されていない場合は必須です。 | `scalardb-data-loader --namespace namespace` | -| --table | データをエクスポートするテーブルの名前。制御ファイルが指定されていない場合は必須です。 | `scalardb-data-loader --table tableName` | -| --import-mode | ScalarDB テーブルにデータをインポートするモード。サポートされているモードは `insert`、`update`、および `upsert` です。オプション。デフォルトでは、値は `upsert` に設定されています。 | `scalardb-data-loader --import-mode=upsert` | -| --all-columns-required | 設定されている場合、列が欠落しているデータ行はインポートできません。オプションです。デフォルトでは、チェックは実行されません。 | `scalardb-data-loader --all-columns-required` | -| --file | インポートするファイルへのパスを指定します。必須。 | `scalardb-data-loader --file ` | -| --success | 成功したインポート結果を書き込むために作成されるファイルへのパス。成功したインポート結果と失敗したインポート結果は、両方とも別のファイルに書き込まれます。
オプションです。デフォルトでは、現在の作業ディレクトリに新しいファイルが作成されます。

注: ファイルが既に存在する場合は、上書きされます。 | `scalardb-data-loader --success ` | -| --failed | 失敗したインポート結果を書き込むために作成されるファイルへのパス。
オプション。デフォルトでは、現在の作業ディレクトリに新しいファイルが作成されます。

注: ファイルがすでに存在する場合は、上書きされます。 | `scalardb-data-loader --failed ` | -| --threads | 同時処理のスレッド数。 | `scalardb-data-loader --threads 500` | -| --format | インポートファイルの形式。`json` および `jsonl` ファイルがサポートされています。オプション。デフォルトでは値 `json` が選択されます。 | `scalardb-data-loader --format json` | -| --ignore-null | ソースファイル内の null 値は無視されます。つまり、既存のデータは上書きされません。オプション。デフォルトでは値は `false` です。 | `scalardb-data-loader --ignore-null` | -| --pretty | 設定すると、成功ファイルと失敗ファイルへの出力は `pretty print` モードで行われます。デフォルトでは、このオプションは有効になっていません。 | `scalardb-data-loader --pretty` | -| --control-file | カスタムデータマッピングやマルチテーブルインポートのルールを指定する JSON 制御ファイルへのパス。 | `scalardb-data-loader --control-file control.json` | -| --control-file-validation-level | 制御ファイルの検証レベル。`MAPPED`、`KEYS`、または` FULL`。

オプションで、デフォルトではレベルは `MAPPED` に設定されています。 | `scalardb-data-loader --control-file-validation-level FULL` | -| --log-put-value | ScalarDB `PUT` 操作で使用された値がログファイルに含まれるかどうか。
オプションで、デフォルトでは無効になっています。 | `scalardb-data-loader --log-put-value` | -| --error-file-required | インポートファイルに CSV データが含まれている場合に、オプションの JSON タイプのエラーファイルをエクスポートします。デフォルトでは、このオプションは無効になっています。 | `scalardb-data-loader --error-file-required` | -| --error | インポートファイルに CSV データが含まれている場合に、オプションのエラーファイルを指定します。 | `scalardb-data-loader --error ` | -| --delimiter | インポートファイルに CSV データが含まれている場合に、カスタム区切り文字を指定します。 | `scalardb-data-loader --delimiter ` | -| --header | インポートファイルに CSV データが含まれていて、ヘッダー行がない場合に、ヘッダー行データを指定します。 | `scalardb-data-loader --header ` | - -## インポートモード - -Data Loader は、次のインポートモードをサポートしています: - -| モード | 説明 | -| ------ | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | -| INSERT | 各ソースレコードは新しいデータとして扱われます。パーティションとクラスタリングキーに基づいて、ScalarDB テーブルにデータがすでに存在する場合、このソースデータのインポートは失敗します。 | -| UPDATE | 各ソースレコードは、ScalarDB テーブル内の既存のデータの更新として扱われます。パーティションキーとクラスタリングキーに基づいて、テーブルにデータが存在しない場合、このソースデータのインポートは失敗します。 | -| UPSERT | ターゲット ScalarDB テーブルにすでにデータが含まれている場合、インポートは UPDATE によって行われます。ターゲットデータがない場合は、INSERT として扱われます。 | - -*注*: - - `INSERT` の場合、自動マッピングまたは制御ファイルによるカスタムマッピングによって、各ターゲット列のソースファイル内に一致するフィールドが必要です。これは、`INSERT` に変わる `UPSERT` にも適用されます。 - -## データマッピング - -### 自動マッピング - -制御ファイルが指定されていない場合、Data Loader はソース JSON データ内のフィールドを ScalarDB テーブル内の使用可能な列に自動的にマッピングします。名前が一致せず、すべての列が必須である場合は、検証エラーとして扱われます。この場合、このレコードのインポートは失敗し、結果は失敗した出力ログに追加されます。 - -### カスタムマッピング - -ソースフィールドがターゲット列名と一致しない場合は、制御ファイルを使用する必要があります。この制御ファイルでは、フィールド名のカスタムマッピングルールを指定できます。 - -たとえば、次の制御ファイルは、ソースファイルのフィールド `custom_id` をターゲットテーブルの `id` にマッピングします。 - -```json -{ - "tables": [{ - "namespace": "sample", - "table_name": "table1", - "mappings": [{ - "source_field": "custom_id", - "target_column": "id" - }] - } - ] -} -``` - -## 制御ファイル - -カスタムデータマッピングまたは複数テーブルのインポートを可能にするために、Data Loader は JSON 制御ファイルによる設定をサポートしています。このファイルは、Data Loader を起動するときに `--control-file` 引数で渡す必要があります。 - -### 制御ファイルの検証レベル - -制御ファイルの検証を強制するために、Data Loader では検証レベルを指定できます。設定されたレベルに基づいて、Data Loader は事前チェックを実行し、レベルルールに基づいて制御ファイルを検証します。 - -次のレベルがサポートされています。 - -| レベル | 説明 | -| ------ | -------------------------------------------------------------------------------------------------------------------------------------------------- | -| FULL | この検証では、制御ファイルにターゲット ScalarDB テーブルの各列のマッピングがあることを確認します。 | -| KEYS | この検証では、各 ScalarDB テーブルパーティションのマッピングと、使用可能な場合は制御ファイルマッピングのクラスタリングキー列のマッピングが使用可能であることを確認します。 | -| MAPPED | この検証では、指定されたソースフィールドとターゲット列が、制御ファイルで指定されたマッピングに対してのみ存在することを確認します。
その他のフィールドはチェックされません。 | - -検証レベルはオプションであり、Data Loader の起動時に `--control-file-validation-level` 引数で設定できます。 - -*注*: - -この検証は事前チェックとして実行されるものであり、インポートプロセスが自動的に成功することを意味するものではありません。 - -例:レベルがマップ済みに設定されていて、制御ファイルに INSERT の各列のマッピングが含まれていない場合、INSERT にはすべての列をマップする必要があるため、インポートプロセスは失敗します。 - -## 複数テーブルのインポート - -Data Loader は、複数テーブルのターゲットインポートをサポートしています。 - -JSON または JSONLine ファイル内の 1 つの行を、制御ファイルでテーブルマッピングルールを指定することにより、複数のテーブルにインポートできます。現在、制御ファイルなしでは複数テーブルのインポートはサポートされていません。 - -ScalarDB トランザクションモードで複数テーブルのインポートを使用する場合、各テーブルのインポートごとにトランザクションが作成されます。例: ソースレコードが制御ファイルで 3 つのテーブルにマップされている場合、3 つの個別のトランザクションが作成されます。 - -例: 次のソースレコードを `table1` と `table2` にインポートするには、次の手順を実行します: - -| Table1 | Table2 | -| ------ | ------ | -| Id | Id | -| price | amount | - -**ソースレコード** - -```json -[{ - "custom_id": 1, - "custom_price": 1000, - "custom_amount": 100 - -}] -``` - -**制御ファイル** - -```json -{ - "tables": [{ - "namespace": "sample", - "table_name": "table1", - "mappings": [{ - "source_field": "custom_id", - "target_column": "id" - }, { - "source_field": "custom_price", - "target_column": "price" - }] - }, - { - "namespace": "sample", - "table_name": "table2", - "mappings": [{ - "source_field": "custom_id", - "target_column": "id" - }, { - "source_field": "custom_amount", - "target_column": "amount" - }] - } - ] -} -``` - -## 出力ログ - -インポートタスクを開始すると、Data Loader はインポート結果を 2 つのファイルに記録します。1 つのファイルには正常にインポートされたインポートデータが含まれ、もう 1 つのファイルにはインポートできなかったデータが含まれます。失敗したデータには、データをインポートできなかった理由を説明する追加フィールドが含まれます。このフィールドは `data_loader_import_status` と呼ばれます。 - -失敗したインポートを含むファイルは、問題を修正するために編集し、そのまま新しいインポートタスクのソースファイルとして使用できます。エラーを含む `data_loader_import_status` フィールドを最初に削除する必要はありません。このフィールドはインポートプロセス中に無視され、元の値は成功または失敗した出力ファイルの新しいバージョンには含まれません。 - -正常にインポートされたデータを含むファイルには `data_loader_import_status` フィールドも含まれます。このファイルは、インポートされた各データ行に関するステータスメッセージ(新しい行が作成されたか、既存のデータが更新されたか)を含みます。 - -### ログ形式 - -| フィールド | 説明 | -| -------------- | -------------------------------------------------------------------------------------- | -| action | データレコードのインポートプロセスの結果。UPDATE、INSERT、または FAILED_DURING_VALIDATION。 | -| namespace | データがインポートされるテーブルの名前空間。 | -| tablename | データがインポートされるテーブルの名前。 | -| is_data_mapped | 使用可能な制御ファイルに基づいて、カスタムデータマッピングが適用されたかどうか。 | -| tx_id | トランザクションの ID。Data Loader が `transaction` モードで実行されている場合にのみ使用できます。 | -| value | オプションのデータマッピング後の最終値。Data Loader が `PUT` 操作で使用する値。 | -| row_number | ソースデータの行番号またはレコード番号。 | -| Errors | インポートプロセス中に問題が発生した検証エラーまたはその他のエラーのリスト。 | - -JSON 形式の成功ログファイルの例: - -```json -[{ - "column_1": 1, - "column_2": 2, - "column_n": 3, - "data_loader_import_status": { - "results": [{ - "action": "UPDATE", - "namespace": "namespace1", - "tableName": "table1", - "is_data_mapped": true, - "tx_id": "value", - "value": "value", - "row_number": "value" - }] - } -}] -``` - -JSON 形式の失敗したログファイルの例: - -```json -[{ - "column_1": 1, - "column_2": 2, - "column_n": 3, - "data_loader_import_status": { - "results": [{ - "action": "FAILED_DURING_VALIDATION", - "namespace": "namespace1", - "tableName": "table1", - "is_data_mapped": false, - "value": "value", - "row_number": "value", - "errors": [ - "missing columns found during validation" - ] - }] - } -}] -``` - -## データの重複 - -Data Loader は重複を単独では処理しません。ScalarDB トランザクションモードでは、同じターゲットデータを連続して更新しようとすると `No Mutation` エラーが発生しますが、これは Data Loader では処理されません。これらの失敗したデータ行は、失敗したインポート結果の出力ファイルに追加され、後でインポートを再試行できます。 - -ただし、Data Loader では正しい状態を保証できないため、インポートファイルに同じパーティションキーやクラスタリングキーの更新や挿入が含まれていないことを確認することをお勧めします。 - -## ストレージモードとトランザクションモード - -ScalarDB はストレージモードとトランザクションモードの両方をサポートしており、このサポートは Data Loader のインポートプロセスに含まれています。 - -ローダーがストレージモードで起動されると、各インポートは非​​トランザクション方式で実行されます。 - -ローダーをトランザクションモードで起動すると、トランザクションを使用してデータがインポートされます。現在、各行は個別のトランザクションを介してインポートされます。1 つのレコードを複数のテーブルにインポートする場合、各テーブルのインポートごとに個別のトランザクションが作成されます。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-envoy.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-envoy.mdx index 635a29f3..5bb4ae66 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-envoy.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-envoy.mdx @@ -2,29 +2,30 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- +# Scalar Envoy のカスタム値ファイルを構成する + import Tabs from '@theme/Tabs'; import TabItem from '@theme/TabItem'; -# Scalar Envoy のカスタム値ファイルを構成する - -このドキュメントでは、Scalar Envoy チャートのカスタム値ファイルを作成する方法について説明します。 パラメータの詳細を知りたい場合は、Scalar Envoy チャートの [README](https://github.com/scalar-labs/helm-charts/blob/main/charts/envoy/README.md) を参照してください。 +このドキュメントでは、Scalar Envoy チャートのカスタム値ファイルを作成する方法について説明します。パラメータの詳細を知りたい場合は、Scalar Envoy チャートの [README](https://github.com/scalar-labs/helm-charts/blob/main/charts/envoy/README.md) を参照してください。 ## Scalar Envoy チャートのカスタム値を構成する -Scalar Envoy チャートは他のチャート (scalardb、scalardb-cluster、scalardl、scalardl-audit) 経由で使用されるため、Scalar Envoy チャートのカスタム値ファイルを作成する必要はありません。 Scalar Envoy を設定したい場合は、`envoy.*` 設定を他のチャートに追加する必要があります。 +Scalar Envoy チャートは他のチャート (scalardb、scalardb-cluster、scalardl、scalardl-audit) 経由で使用されるため、Scalar Envoy チャートのカスタム値ファイルを作成する必要はありません。Scalar Envoy を設定したい場合は、`envoy.*` 設定を他のチャートに追加する必要があります。 たとえば、ScalarDB Server 用に Scalar Envoy を構成する場合は、次のように ScalarDB のカスタム値ファイルでいくつかの Scalar Envoy 構成を構成できます。 * 例 (scalardb-custom-values.yaml) ```yaml envoy: - configurationsForScalarEnvoy: + configurationsForScalarEnvoy: ... - + scalardb: - configurationsForScalarDB: + configurationsForScalarDB: ... ``` @@ -32,9 +33,9 @@ Scalar Envoy チャートは他のチャート (scalardb、scalardb-cluster、sc ### サービス構成 -Kubernetes のサービス リソース タイプを指定するには、`envoy.service.type` を設定する必要があります。 +Kubernetes のサービスリソースタイプを指定するには、`envoy.service.type` を設定する必要があります。 -Kubernetes クラスターの内部からのみクライアント リクエストを受け入れる場合 (たとえば、クライアント アプリケーションを Scalar 製品と同じ Kubernetes クラスターにデプロイする場合)、`envoy.service.type` を `ClusterIP` に設定できます。 この構成では、クラウド サービス プロバイダーが提供するロード バランサーは作成されません。 +Kubernetes クラスターの内部からのみクライアントリクエストを受け入れる場合 (たとえば、クライアントアプリケーションを Scalar 製品と同じ Kubernetes クラスターにデプロイする場合)、`envoy.service.type` を `ClusterIP` に設定できます。この構成では、クラウドサービスプロバイダーが提供するロードバランサーは作成されません。 ```yaml envoy: @@ -42,7 +43,7 @@ envoy: type: ClusterIP ``` -クラウド サービス プロバイダーが提供するロード バランサーを使用して、Kubernetes クラスターの外部からのクライアント リクエストを受け入れる場合は、`envoy.service.type` を `LoadBalancer` に設定する必要があります。 +クラウドサービスプロバイダーが提供するロードバランサーを使用して、Kubernetes クラスターの外部からのクライアントリクエストを受け入れる場合は、`envoy.service.type` を `LoadBalancer` に設定する必要があります。 ```yaml envoy: @@ -65,9 +66,9 @@ envoy: ### リソース構成 (本番環境で推奨) -Kubernetes のリクエストと制限を使用してポッド リソースを制御したい場合は、`envoy.resources` を使用できます。 +Kubernetes のリクエストと制限を使用してポッドリソースを制御したい場合は、`envoy.resources` を使用できます。 -これらは、Kubernetes のリクエストと制限と同じ構文を使用して構成できます。 そのため、Kubernetes の要求と制限の詳細については、公式ドキュメント [Resource Management for Pods and Containers](https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/) を参照してください。 +これらは、Kubernetes のリクエストと制限と同じ構文を使用して構成できます。そのため、Kubernetes の要求と制限の詳細については、公式ドキュメント [Resource Management for Pods and Containers](https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/) を参照してください。 ```yaml envoy: @@ -84,7 +85,7 @@ envoy: Kubernetes のアフィニティと反アフィニティを使用してポッドのデプロイメントを制御したい場合は、`envoy.affinity` を使用できます。 -Kubernetes のアフィニティと同じ構文を使用して構成できます。 そのため、Kubernetes のアフィニティ設定の詳細については、公式ドキュメント [Assigning Pods to Nodes](https://kubernetes.io/docs/concepts/scheduling-eviction/assign-pod-node/) を参照してください。 +Kubernetes のアフィニティと同じ構文を使用して構成できます。そのため、Kubernetes のアフィニティ設定の詳細については、公式ドキュメント [Assigning Pods to Nodes](https://kubernetes.io/docs/concepts/scheduling-eviction/assign-pod-node/) を参照してください。 ```yaml envoy: @@ -108,7 +109,7 @@ envoy: ### Prometheus および Grafana 構成 (実稼働環境で推奨) -[kube-prometheus-stack](https://github.com/prometheus-community/helm-charts/tree/main/charts/kube-prometheus-stack) を使用して Scalar Envoy ポッドを監視する場合は、`envoy.grafanaDashboard.enabled`、`envoy.serviceMonitor` を使用して、kube-prometheus-stack の ConfigMap、ServiceMonitor、および PrometheusRule リソースをデプロイできます。 `envoy.prometheusRule.enabled` と `envoy.prometheusRule.enabled`。 +[kube-prometheus-stack](https://github.com/prometheus-community/helm-charts/tree/main/charts/kube-prometheus-stack) を使用して Scalar Envoy ポッドを監視する場合は、`envoy.grafanaDashboard.enabled`、`envoy.serviceMonitor` を使用して、kube-prometheus-stack の ConfigMap、ServiceMonitor、および PrometheusRule リソースをデプロイできます。`envoy.prometheusRule.enabled` と `envoy.prometheusRule.enabled`。 ```yaml envoy: @@ -128,7 +129,7 @@ envoy: Scalar Envoy ポッドに SecurityContext と PodSecurityContext を設定する場合は、`envoy.securityContext` と `envoy.podSecurityContext` を使用できます。 -KubernetesのSecurityContextやPodSecurityContextと同じ構文を使用して設定できます。 したがって、Kubernetes の SecurityContext および PodSecurityContext 構成の詳細については、公式ドキュメント [Configure a Security Context for a Pod or Container](https://kubernetes.io/docs/tasks/configure-pod-container/security-context/) を参照してください。 +Kubernetes の SecurityContext や PodSecurityContext と同じ構文を使用して設定できます。したがって、Kubernetes の SecurityContext および PodSecurityContext 構成の詳細については、公式ドキュメント [Configure a Security Context for a Pod or Container](https://kubernetes.io/docs/tasks/configure-pod-container/security-context/) を参照してください。 ```yaml envoy: @@ -145,7 +146,7 @@ envoy: ### 画像構成 (デフォルト値を推奨) -イメージ リポジトリとバージョンを変更したい場合は、`envoy.image.repository` を使用して、プルする Scalar Envoy コンテナ イメージのコンテナ リポジトリ情報を指定できます。 +イメージリポジトリとバージョンを変更したい場合は、`envoy.image.repository` を使用して、プルする Scalar Envoy コンテナイメージのコンテナリポジトリ情報を指定できます。 ```yaml envoy: @@ -165,7 +166,7 @@ AWS または Azure を使用している場合、詳細については次のド - クライアントと Scalar Envoy 間のダウンストリーム接続。 - Scalar Envoy と Scalar 製品間のアップストリーム接続。 -さらに、次の 2 つの観点からいくつかのオプションがあります。 +さらに、次の2つの観点からいくつかのオプションがあります。 1. 秘密鍵と証明書ファイルの管理 1. [cert-manager](https://cert-manager.io/docs/) を使用して秘密鍵と証明書ファイルを自動的に管理します。 @@ -174,7 +175,7 @@ AWS または Azure を使用している場合、詳細については次のド 1. 秘密鍵と証明書ファイルを手動で管理します。 - ご自身のお好みの方法で、秘密鍵と証明書ファイルを発行・管理することができます。 - cert-manager がサポートしていない場合でも、任意の証明書を使用できます。 - - 証明書の有効期限が切れた場合は、シークレット リソースを更新する必要があります。 + - 証明書の有効期限が切れた場合は、シークレットリソースを更新する必要があります。 1. 証明書の種類 1. 信頼できる CA (サードパーティによる署名付き証明書) を使用します。 - サードパーティの証明書発行者からの信頼できる証明書を使用できます。 @@ -184,7 +185,7 @@ AWS または Azure を使用している場合、詳細については次のド - 証明書発行にかかるコストを削減できます。 - 証明書の信頼性は信頼できる CA よりも低くなりますが、パケットを暗号化できます。 -つまり、次の 4 つのオプションがあります。 +つまり、次の4つのオプションがあります。 1. 自動管理で自己署名 CA を使用します。 1. 自動管理で信頼できる CA を使用します。 @@ -241,7 +242,7 @@ kubectl create secret generic envoy-tls-cert --from-file=tls.crt=/ -n ``` -秘密鍵と証明書ファイルの準備方法の詳細については、[Scalar 製品の秘密鍵と証明書ファイルの作成方法](../scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx) を参照してください。 +秘密鍵と証明書ファイルの準備方法の詳細については、[Scalar 製品の秘密鍵と証明書ファイルの作成方法](../scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx)を参照してください。 ##### cert-manager で信頼できる CA を使用して秘密鍵と証明書ファイルを管理する @@ -250,8 +251,8 @@ kubectl create secret generic envoy-tls-key --from-file=tls.key=/ @@ -353,11 +354,11 @@ envoy:
-秘密鍵と証明書ファイルを準備する方法の詳細については、[Scalar 製品のキーと証明書ファイルを作成する方法](../scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx) を参照してください。 +秘密鍵と証明書ファイルを準備する方法の詳細については、[Scalar 製品のキーと証明書ファイルを作成する方法](../scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx)を参照してください。 ##### TLS通信のカスタム権限を設定する -`envoy.tls.upstream.overrideAuthority` を使用して、TLS 通信のカスタム権限を設定できます。この値によって、実際に接続されているホストが変わることはありません。この値はテスト用ですが、DNS オーバーライドの代替としてテスト以外でも安全に使用できます。たとえば、使用している製品に応じて、`scalardbCluster.tls.certChainSecret`、`ledger.tls.certChainSecret`、または `auditor.tls.certChainSecret` を使用して設定した証明書チェーン ファイルに示されているホスト名を指定できます。Envoy はこの値を使用して、ScalarDB Cluster または ScalarDL との TLS 接続の証明書を検証します。 +`envoy.tls.upstream.overrideAuthority` を使用して、TLS 通信のカスタム権限を設定できます。この値によって、実際に接続されているホストが変わることはありません。この値はテスト用ですが、DNS オーバーライドの代替としてテスト以外でも安全に使用できます。たとえば、使用している製品に応じて、`scalardbCluster.tls.certChainSecret`、`ledger.tls.certChainSecret`、または `auditor.tls.certChainSecret` を使用して設定した証明書チェーンファイルに示されているホスト名を指定できます。Envoy はこの値を使用して、ScalarDB Cluster または ScalarDL との TLS 接続の証明書を検証します。 ```yaml envoy: @@ -380,7 +381,7 @@ envoy: Kubernetes のテイントと許容を使用してポッドのデプロイメントを制御したい場合は、`envoy.tolerations` を使用できます。 -Kubernetes の許容と同じ構文を使用して、テイントと許容を構成できます。 Kubernetes での許容設定の詳細については、Kubernetes の公式ドキュメント [Taints and Tolerations](https://kubernetes.io/docs/concepts/scheduling-eviction/taint-and-toleration/) を参照してください。 +Kubernetes の許容と同じ構文を使用して、テイントと許容を構成できます。Kubernetes での許容設定の詳細については、Kubernetes の公式ドキュメント [Taints and Tolerations](https://kubernetes.io/docs/concepts/scheduling-eviction/taint-and-toleration/) を参照してください。 ```yaml envoy: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-file.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-file.mdx index 459392dc..b2ddeb0c 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-file.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-file.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Scalar Helm Charts のカスタム値ファイルを構成する @@ -10,7 +11,7 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -Scalar Helm Chart を使用して Scalar 製品をデプロイする場合は、環境に基づいてカスタム値ファイルを準備する必要があります。 各製品のカスタム値ファイルの作成方法の詳細については、次のドキュメントを参照してください。 +Scalar Helm Chart を使用して Scalar 製品をデプロイする場合は、環境に基づいてカスタム値ファイルを準備する必要があります。各製品のカスタム値ファイルの作成方法の詳細については、次のドキュメントを参照してください。 * [ScalarDB Cluster](configure-custom-values-scalardb-cluster.mdx) * [ScalarDB Analytics with PostgreSQL](configure-custom-values-scalardb-analytics-postgresql.mdx) diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-scalar-admin-for-kubernetes.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-scalar-admin-for-kubernetes.mdx index 0327f4e1..a25f7733 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-scalar-admin-for-kubernetes.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-scalar-admin-for-kubernetes.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Scalar Admin for Kubernetes のカスタム値ファイルを構成する @@ -10,7 +11,7 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、Scalar Admin for Kubernetes チャートのカスタム値ファイルを作成する方法について説明します。 パラメーターの詳細については、Scalar Admin for Kubernetes チャートの [README](https://github.com/scalar-labs/helm-charts/blob/main/charts/scalar-admin-for-kubernetes/README.md) を参照してください。 +このドキュメントでは、Scalar Admin for Kubernetes チャートのカスタム値ファイルを作成する方法について説明します。パラメーターの詳細については、Scalar Admin for Kubernetes チャートの [README](https://github.com/scalar-labs/helm-charts/blob/main/charts/scalar-admin-for-kubernetes/README.md) を参照してください。 ## 必要な構成 @@ -18,7 +19,7 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; ### フラグ設定 -Scalar Admin for Kubernetes を実行するには、配列として `scalarAdminForKubernetes.commandArgs` にいくつかのフラグを指定する必要があります。 フラグの詳細については、Scalar Admin for Kubernetes の [README](https://github.com/scalar-labs/scalar-admin-for-kubernetes/blob/main/README.md) を参照してください。 +Scalar Admin for Kubernetes を実行するには、配列として `scalarAdminForKubernetes.commandArgs` にいくつかのオプションを指定する必要があります。オプションの詳細については、Scalar Admin for Kubernetes の [README](https://github.com/scalar-labs/scalar-admin-for-kubernetes/blob/main/README.md) を参照してください。 ```yaml scalarAdminForKubernetes: @@ -39,7 +40,7 @@ scalarAdminForKubernetes: ### CronJob 構成 (環境に応じてオプション) -デフォルトでは、Scalar Admin for Kubernetes チャートは、Scalar Admin for Kubernetes CLI ツールを 1 回実行するための [Job](https://kubernetes.io/docs/concepts/workloads/controllers/job/) リソースを作成します。 [CronJob](https://kubernetes.io/docs/concepts/workloads/controllers/cron-jobs/) を使用して Scalar Admin for Kubernetes CLI ツールを定期的に実行する場合は、`scalarAdminForKubernetes.jobType` を `cronjob` に設定できます。 また、CronJob リソースのいくつかの構成を設定することもできます。 +デフォルトでは、Scalar Admin for Kubernetes チャートは、Scalar Admin for Kubernetes CLI ツールを1回実行するための [Job](https://kubernetes.io/docs/concepts/workloads/controllers/job/) リソースを作成します。[CronJob](https://kubernetes.io/docs/concepts/workloads/controllers/cron-jobs/) を使用して Scalar Admin for Kubernetes CLI ツールを定期的に実行する場合は、`scalarAdminForKubernetes.jobType` を `cronjob` に設定できます。また、CronJob リソースのいくつかの構成を設定することもできます。 ```yaml scalarAdminForKubernetes: @@ -50,9 +51,9 @@ scalarAdminForKubernetes: ### リソース構成 (実稼働環境で推奨) -Kubernetes でリクエストと制限を使用してポッド リソースを制御するには、`scalarAdminForKubernetes.resources` を使用できます。 +Kubernetes でリクエストと制限を使用してポッドリソースを制御するには、`scalarAdminForKubernetes.resources` を使用できます。 -Kubernetes のリクエストと制限と同じ構文を使用して、リクエストと制限を構成できます。 Kubernetes のリクエストと制限の詳細については、[Resource Management for Pods and Containers](https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/) を参照してください。 +Kubernetes のリクエストと制限と同じ構文を使用して、リクエストと制限を構成できます。Kubernetes のリクエストと制限の詳細については、[Resource Management for Pods and Containers](https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/) を参照してください。 ```yaml scalarAdminForKubernetes: @@ -69,7 +70,7 @@ scalarAdminForKubernetes: Scalar Admin for Kubernetes ポッドの SecurityContext と PodSecurityContext を設定するには、`scalarAdminForKubernetes.securityContext` と `scalarAdminForKubernetes.podSecurityContext` を使用できます。 -Kubernetes の SecurityContext および PodSecurityContext と同じ構文を使用して、SecurityContext および PodSecurityContext を構成できます。 Kubernetes の SecurityContext および PodSecurityContext 構成の詳細については、[Configure a Security Context for a Pod or Container](https://kubernetes.io/docs/tasks/configure-pod-container/security-context/) を参照してください。 +Kubernetes の SecurityContext および PodSecurityContext と同じ構文を使用して、SecurityContext および PodSecurityContext を構成できます。Kubernetes の SecurityContext および PodSecurityContext 構成の詳細については、[Configure a Security Context for a Pod or Container](https://kubernetes.io/docs/tasks/configure-pod-container/security-context/) を参照してください。 ```yaml scalarAdminForKubernetes: @@ -86,7 +87,7 @@ scalarAdminForKubernetes: ### 画像構成 (デフォルト値を推奨) -イメージ リポジトリを変更する場合は、`scalarAdminForKubernetes.image.repository` を使用して、プルする Scalar Admin for Kubernetes イメージのコンテナ リポジトリ情報を指定できます。 +イメージリポジトリを変更する場合は、`scalarAdminForKubernetes.image.repository` を使用して、プルする Scalar Admin for Kubernetes イメージのコンテナリポジトリ情報を指定できます。 ```yaml scalarAdminForKubernetes: @@ -98,7 +99,7 @@ scalarAdminForKubernetes: Kubernetes のテイントと許容を使用してポッドのデプロイメントを制御したい場合は、`scalarAdminForKubernetes.tolerations` を使用できます。 -Kubernetes の許容と同じ構文を使用して、テイントと許容を構成できます。 Kubernetes での許容設定の詳細については、Kubernetes の公式ドキュメント [Taints and Tolerations](https://kubernetes.io/docs/concepts/scheduling-eviction/taint-and-toleration/) を参照してください。 +Kubernetes の許容と同じ構文を使用して、テイントと許容を構成できます。Kubernetes での許容設定の詳細については、Kubernetes の公式ドキュメント [Taints and Tolerations](https://kubernetes.io/docs/concepts/scheduling-eviction/taint-and-toleration/) を参照してください。 ```yaml scalarAdminForKubernetes: @@ -124,7 +125,7 @@ scalarAdminForKubernetes: - cluster.scalardb.example.com ``` -シークレットリソースを使用して、`/tls/certs/ca.crt` ファイルをポッドにマウントできます。 `scalarAdminForKubernetes.tls.caRootCertSecret` にルート CA 証明書ファイルを含むシークレットリソースの名前を指定してください。 +シークレットリソースを使用して、`/tls/certs/ca.crt` ファイルをポッドにマウントできます。`scalarAdminForKubernetes.tls.caRootCertSecret` にルート CA 証明書ファイルを含むシークレットリソースの名前を指定してください。 ```yaml scalarAdminForKubernetes: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-scalar-manager.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-scalar-manager.mdx index 02db429c..94eb109d 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-scalar-manager.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-scalar-manager.mdx @@ -1,6 +1,7 @@ --- tags: - Enterprise Option +displayed_sidebar: docsJapanese --- # Scalar Manager のカスタム値ファイルを構成する @@ -9,28 +10,28 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、Scalar Manager チャートのカスタム値ファイルを作成する方法について説明します。 パラメータの詳細を知りたい場合は、Scalar Manager チャートの [README](https://github.com/scalar-labs/helm-charts/blob/main/charts/scalar-manager/README.md) を参照してください。 +このドキュメントでは、Scalar Manager チャートのカスタム値ファイルを作成する方法について説明します。パラメータの詳細を知りたい場合は、Scalar Manager チャートの [README](https://github.com/scalar-labs/helm-charts/blob/main/charts/scalar-manager/README.md) を参照してください。 ## 必要な構成 ### サービス構成 -Kubernetes のサービスリソースタイプを指定するには、`service.type` を設定する必要があります。 プロバイダーが提供するロードバランサーを使用する場合は、`service.type`を`LoadBalancer`に設定する必要があります。 +Kubernetes のサービスリソースタイプを指定するには、`service.type` を設定する必要があります。プロバイダーが提供するロードバランサーを使用する場合は、`service.type` を `LoadBalancer` に設定する必要があります。 ```yaml service: type: LoadBalancer ``` -#### Scalar Managerの公開に関するセキュリティ上の懸念 +#### Scalar Manager の公開に関するセキュリティ上の懸念 -`service.type`を`LoadBalancer`に設定すると、Scalar Managerがクラスター外に公開されるため、セキュリティ上の懸念が生じる可能性があります。 +`service.type` を `LoadBalancer` に設定すると、Scalar Manager がクラスター外に公開されるため、セキュリティ上の懸念が生じる可能性があります。 -現在、Scalar Managerには認証やアクセス制御のメカニズムがありません。 -このため、適切なセキュリティ対策なしにScalar Managerを直接パブリックネットワークに公開すると、不正なアクションにつながる可能性があります。 -これは、Scalar Managerが Scalar製品の一時停止ジョブのスケジューリングなどの機能を提供しているためです。 +現在、Scalar Manager には認証やアクセス制御のメカニズムがありません。 +このため、適切なセキュリティ対策なしに Scalar Manager を直接パブリックネットワークに公開すると、不正なアクションにつながる可能性があります。 +これは、Scalar Manager が Scalar 製品の一時停止ジョブのスケジューリングなどの機能を提供しているためです。 -外部アクセスが必要な場合は、プライベートネットワークを使用するか、Kubernetesクラスターへのネットワークアクセスを適切に設定することをお勧めします。 +外部アクセスが必要な場合は、プライベートネットワークを使用するか、Kubernetes クラスターへのネットワークアクセスを適切に設定することをお勧めします。 ### 画像構成 @@ -48,8 +49,8 @@ web: ## オプション設定 このセクションでは、Scalar Manager用のカスタム値ファイルを設定する際のオプション設定について説明します。 -### Scalar Manager設定(環境に応じてオプション) -`api.applicationProperties`カスタム値を上書きして、Scalar Managerのデフォルト設定を変更できます。 +### Scalar Manager 設定 (環境に応じてオプション) +`api.applicationProperties` カスタム値を上書きして、Scalar Managerのデフォルト設定を変更できます。 ```yaml api: @@ -62,40 +63,40 @@ api: Scalar Managerには、例えばScalar製品のデプロイメントやクラスター内のPrometheusおよびLokiサービスを検出するためのデフォルト設定があります。 ほとんどのユースケースでは、特にkube-prometheus-stackのデプロイガイドやloki-stackのデプロイガイドに従っている場合、デフォルト設定を変更する必要はありません。 -#### api.applicationPropertiesで設定できるプロパティ +#### api.applicationProperties で設定できるプロパティ -Scalar Managerの設定は、Javaアプリケーションプロパティの形式で、key=valueのペアです。 -これらのアプリケーションプロパティは、Scalar Manager Helm Chartのapi.applicationPropertiesカスタム値を使用して設定できます。 +Scalar Manager の設定は、Java アプリケーションプロパティの形式で、key=valueのペアです。 +これらのアプリケーションプロパティは、Scalar Manager Helm Chart の api.applicationProperties カスタム値を使用して設定できます。 |名前|説明|デフォルト値| |---|---|---| -|`grafana.kubernetesServiceLabelName`|KubernetesでGrafanaサービスを検出するために使用されるラベル名|`app.kubernetes.io/name`| -|`grafana.kubernetesServiceLabelValue`|`grafana.kubernetesServiceLabelName`に対応するラベル値|`grafana`| -|`grafana.kubernetesServicePortName`|KubernetesでGrafanaサービスポートを検出するために使用されるポート名|`http-web`| -|`prometheus.kubernetesServiceLabelName`|KubernetesでPrometheusサービスを検出するために使用されるラベル名|`app`| -|`prometheus.kubernetesServiceLabelValue`|`prometheus.kubernetesServiceLabelName`に対応するラベル値|`kube-prometheus-stack-prometheus`| -|`prometheus.kubernetesServicePortName`|KubernetesでPrometheusサービスポートを検出するために使用されるポート名|`http-web`| -|`loki.kubernetesServiceLabelName`|KubernetesでPrometheusサービスを検出するために使用されるラベル名|`app`| -|`loki.kubernetesServiceLabelValue`|`loki.kubernetesServiceLabelName`に対応するラベル値|`loki`| -|`loki.kubernetesServicePortName`|KubernetesでLokiサービスポートを検出するために使用されるポート名|`http-metrics`| -|`helm.scalarRepositoryName`|Scalar Helmリポジトリを表すために使用される名前|`scalar-labs`| -|`helm.scalarRepositoryUrl`|Scalar HelmリポジトリのURL|`https://scalar-labs.github.io/helm-charts`| -|`helm.scalarAdminForKubernetesChartName`|Scalar HelmリポジトリにおけるKubernetes用Scalar Adminの Helm Chart名|`scalar-admin-for-kubernetes`| -|`helm.scalarAdminForKubernetesChartVersion`|Kubernetes用Scalar Admin Helm Chartのバージョン|`1.0.0`| -|`configMapNamespace`|Scalar Managerが使用するConfigMapがデプロイされる名前空間|`default`| -|`configMapName`|Scalar Managerが使用するConfigMapの名前|`scalar-manager-metadata`| +|`grafana.kubernetesServiceLabelName`|Kubernetes で Grafana サービスを検出するために使用されるラベル名|`app.kubernetes.io/name`| +|`grafana.kubernetesServiceLabelValue`|`grafana.kubernetesServiceLabelName` に対応するラベル値|`grafana`| +|`grafana.kubernetesServicePortName`|Kubernetes で Grafana サービスポートを検出するために使用されるポート名|`http-web`| +|`prometheus.kubernetesServiceLabelName`|Kubernetes で Prometheus サービスを検出するために使用されるラベル名|`app`| +|`prometheus.kubernetesServiceLabelValue`|`prometheus.kubernetesServiceLabelName` に対応するラベル値|`kube-prometheus-stack-prometheus`| +|`prometheus.kubernetesServicePortName`|Kubernetes で Prometheus サービスポートを検出するために使用されるポート名|`http-web`| +|`loki.kubernetesServiceLabelName`|Kubernetes で Prometheus サービスを検出するために使用されるラベル名|`app`| +|`loki.kubernetesServiceLabelValue`|`loki.kubernetesServiceLabelName` に対応するラベル値|`loki`| +|`loki.kubernetesServicePortName`|Kubernetes で Loki サービスポートを検出するために使用されるポート名|`http-metrics`| +|`helm.scalarRepositoryName`|Scalar Helm リポジトリを表すために使用される名前|`scalar-labs`| +|`helm.scalarRepositoryUrl`|Scalar Helm リポジトリの URL|`https://scalar-labs.github.io/helm-charts`| +|`helm.scalarAdminForKubernetesChartName`|Scalar Helm リポジトリにおける Kubernetes 用 Scalar Admin の Helm Chart 名|`scalar-admin-for-kubernetes`| +|`helm.scalarAdminForKubernetesChartVersion`|Kubernetes 用 Scalar Admin Helm Chart のバージョン|`1.0.0`| +|`configMapNamespace`|Scalar Manager が使用する ConfigMap がデプロイされる名前空間|`default`| +|`configMapName`|Scalar Manager が使用する ConfigMap の名前|`scalar-manager-metadata`| |`paused-state-retention.storage`|一時停止状態を保持するために使用されるストレージタイプ|`configmap`| -|`paused-state-retention.max-number`|Scalar Managerが保持する一時停止状態の最大数|`100`| +|`paused-state-retention.max-number`|Scalar Manager が保持する一時停止状態の最大数|`100`| #### サービスディスカバリー -Scalar Managerはラベルセレクターを使用して、Kubernetes内のGrafana、Prometheus、Lokiサービスを検出し、ポート名を使用してそれらに接続します。`*.kubernetesServiceLabelName`、`*.kubernetesServiceLabelValue`、`*.kubernetesServicePortName`の設定を変更することで、ラベルセレクターとポート名を修正できます。 +Scalar Manager はラベルセレクターを使用して、Kubernetes 内の Grafana、Prometheus、Loki サービスを検出し、ポート名を使用してそれらに接続します。`*.kubernetesServiceLabelName`、`*.kubernetesServiceLabelValue`、`*.kubernetesServicePortName` の設定を変更することで、ラベルセレクターとポート名を修正できます。 -一般的に、これらの設定を変更する必要はありません。ただし、Grafana、Prometheus、またはLokiサービスのHelm Chartをインストールする際にラベルやポート名をカスタマイズした場合は、これらの設定をカスタマイズに合わせて調整する必要があります。 +一般的に、これらの設定を変更する必要はありません。ただし、Grafana、Prometheus、または Loki サービスの Helm Chart をインストールする際にラベルやポート名をカスタマイズした場合は、これらの設定をカスタマイズに合わせて調整する必要があります。 -##### Kubernetes用Scalar Adminの使用 +##### Kubernetes 用 Scalar Admin の使用 -Scalar Managerは、[Kubernetes用Scalar Admin](https://github.com/scalar-labs/scalar-admin-for-kubernetes) Helm Chartをインストールして、Scalar製品の一時停止ジョブのスケジューリングや実行を行います。以下の設定を使用して、Scalar Helmリポジトリをセットアップし、Helm Chartを配置します: +Scalar Manager は、[Kubernetes 用 Scalar Admin](https://github.com/scalar-labs/scalar-admin-for-kubernetes) Helm Chart をインストールして、Scalar製品の一時停止ジョブのスケジューリングや実行を行います。以下の設定を使用して、Scalar Helm リポジトリをセットアップし、Helm Chart を配置します: - `helm.scalarRepositoryName` - `helm.scalarRepositoryUrl` @@ -103,24 +104,30 @@ Scalar Managerは、[Kubernetes用Scalar Admin](https://github.com/scalar-labs/s - `helm.scalarAdminForKubernetesChartVersion` :::note + 特別な理由がない限り、これらの設定を変更することはお勧めしません。 + ::: -##### Scalar Managerが使用するConfigMap +##### Scalar Manager が使用する ConfigMap -Scalar Managerは、デフォルトのアプリケーションプロパティなどのメタデータを保存するためにConfigMapを使用します。ConfigMapは以下の設定で指定された名前空間にデプロイされます: +Scalar Manager は、デフォルトのアプリケーションプロパティなどのメタデータを保存するために ConfigMap を使用します。ConfigMap は以下の設定で指定された名前空間にデプロイされます: - `configMapNamespace` - `configMapName` :::note -競合するConfigMapを使用している場合など、特別な理由がない限り、これらの設定を変更することはお勧めしません。 + +競合する ConfigMap を使用している場合など、特別な理由がない限り、これらの設定を変更することはお勧めしません。 + ::: ##### 一時停止状態の保持 -Scalar Managerは、Scalar製品の一時停止状態をストレージに保持します。現在、Scalar ManagerはストレージとしてConfigMapのみを使用できるため、`paused-state-retention.storage`設定は`configmap`に設定する必要があります。`paused-state-retention.max-number`設定を設定することで、Scalar Managerが保持する一時停止状態の最大数を調整できます。 +Scalar Manager は、Scalar 製品の一時停止状態をストレージに保持します。現在、Scalar Manager はストレージとして ConfigMap のみを使用できるため、`paused-state-retention.storage` 設定は `configmap` に設定する必要があります。`paused-state-retention.max-number` 設定を設定することで、Scalar Manager が保持する一時停止状態の最大数を調整できます。 :::warning -ストレージにConfigMapを使用する場合、ConfigMapのサイズ制限があるため、`paused-state-retention.max-number`に大きな値を設定することはお勧めしません。ConfigMapに保存されるデータは1 MiBを超えることができないため、Scalar Managerが保持できる一時停止状態の最大数は約3,000です。 + +ストレージに ConfigMap を使用する場合、ConfigMap のサイズ制限があるため、`paused-state-retention.max-number` に大きな値を設定することはお勧めしません。ConfigMap に保存されるデータは 1MiB を超えることができないため、Scalar Manager が保持できる一時停止状態の最大数は約3,000です。 + ::: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-scalardb-analytics-postgresql.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-scalardb-analytics-postgresql.mdx index d0273aab..0c6b8bf9 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-scalardb-analytics-postgresql.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-scalardb-analytics-postgresql.mdx @@ -1,6 +1,7 @@ --- tags: - Community +displayed_sidebar: docsJapanese --- # ScalarDB Analytics with PostgreSQL のカスタム値ファイルを構成する @@ -9,15 +10,15 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、PostgreSQL チャートを使用した ScalarDB Analytics のカスタム値ファイルを作成する方法について説明します。 パラメーターの詳細については、ScalarDB Analytics with PostgreSQL チャートの [README](https://github.com/scalar-labs/helm-charts/blob/main/charts/scalardb-analytics-postgresql/README.md) を参照してください。 +このドキュメントでは、PostgreSQL チャートを使用した ScalarDB Analytics のカスタム値ファイルを作成する方法について説明します。パラメーターの詳細については、ScalarDB Analytics with PostgreSQL チャートの [README](https://github.com/scalar-labs/helm-charts/blob/main/charts/scalardb-analytics-postgresql/README.md) を参照してください。 ## 必要な構成 -このセクションでは、PostgreSQL で ScalarDB Analytics のカスタム値ファイルを設定するときに必要な構成について説明します。 +このセクションでは、ScalarDB Analytics with PostgreSQL のカスタム値ファイルを設定するときに必要な構成について説明します。 ### データベース構成 -PostgreSQL を使用した ScalarDB Analytics 経由でデータベースにアクセスするには、`database.properties` ファイルの構成に使用するのと同じ構文に従って、`scalardbAnalyticsPostgreSQL.databaseProperties` パラメータを設定する必要があります。 設定の詳細については、[ScalarDB Configurations](https://scalardb.scalar-labs.com/docs/latest/configurations/) を参照してください。 +ScalarDB Analytics with PostgreSQL 経由でデータベースにアクセスするには、`database.properties` ファイルの構成に使用するのと同じ構文に従って、`scalardbAnalyticsPostgreSQL.databaseProperties` パラメータを設定する必要があります。設定の詳細については、[ScalarDB Configurations](https://scalardb.scalar-labs.com/docs/latest/configurations/) を参照してください。 ```yaml scalardbAnalyticsPostgreSQL: @@ -30,7 +31,7 @@ scalardbAnalyticsPostgreSQL: ### データベース名前空間の構成 -PostgreSQL を使用した ScalarDB Analytics 経由で読み取りたいテーブルを含むすべてのデータベース名前空間に `schemaImporter.namespaces` を設定する必要があります。 +ScalarDB Analytics with PostgreSQL 経由で読み取りたいテーブルを含むすべてのデータベース名前空間に `schemaImporter.namespaces` を設定する必要があります。 ```yaml schemaImporter: @@ -42,13 +43,13 @@ schemaImporter: ## オプションの構成 -このセクションでは、PostgreSQL で ScalarDB Analytics のカスタム値ファイルを設定する場合のオプションの構成について説明します。 +このセクションでは、ScalarDB Analytics with PostgreSQL のカスタム値ファイルを設定する場合のオプションの構成について説明します。 ### リソース構成 (実稼働環境で推奨) -Kubernetes でリクエストと制限を使用してポッド リソースを制御するには、`scalardbAnalyticsPostgreSQL.resources` を使用できます。 +Kubernetes でリクエストと制限を使用してポッドリソースを制御するには、`scalardbAnalyticsPostgreSQL.resources` を使用できます。 -Kubernetes のリクエストと制限と同じ構文を使用して、リクエストと制限を構成できます。 Kubernetes のリクエストと制限の詳細については、[Resource Management for Pods and Containers](https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/)を参照してください。 +Kubernetes のリクエストと制限と同じ構文を使用して、リクエストと制限を構成できます。Kubernetes のリクエストと制限の詳細については、[Resource Management for Pods and Containers](https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/) を参照してください。 ```yaml scalardbAnalyticsPostgreSQL: @@ -63,11 +64,11 @@ scalardbAnalyticsPostgreSQL: ### シークレット構成 (運用環境で推奨) -環境変数を使用して `scalardbAnalyticsPostgreSQL.databaseProperties` で資格情報などのいくつかのプロパティを設定するには、`scalardbAnalyticsPostgreSQL.secretName` を使用していくつかの資格情報を含むシークレット リソースを指定します。 +環境変数を使用して `scalardbAnalyticsPostgreSQL.databaseProperties` で資格情報などのいくつかのプロパティを設定するには、`scalardbAnalyticsPostgreSQL.secretName` を使用していくつかの資格情報を含むシークレットリソースを指定します。 -たとえば、環境変数を使用してバックエンド データベースの資格情報 (`scalar.db.username` および `scalar.db.password`) を設定できるため、ポッドの安全性が高まります。 +たとえば、環境変数を使用してバックエンドデータベースの資格情報 (`scalar.db.username` および `scalar.db.password`) を設定できるため、ポッドの安全性が高まります。 -シークレットリソースの使用方法の詳細については、[シークレットリソースを使用して資格情報を環境変数としてプロパティファイルに渡す方法(./use-secret-for-credentials.mdx) を参照してください。 +シークレットリソースの使用方法の詳細については、[シークレットリソースを使用して資格情報を環境変数としてプロパティファイルに渡す方法(./use-secret-for-credentials.mdx)を参照してください。 ```yaml scalardbAnalyticsPostgreSQL: @@ -78,7 +79,7 @@ scalardbAnalyticsPostgreSQL: Kubernetes でアフィニティとアンチアフィニティを使用してポッドのデプロイメントを制御するには、`scalardbAnalyticsPostgreSQL.affinity` を使用できます。 -Kubernetes のアフィニティとアンチアフィニティと同じ構文を使用して、アフィニティとアンチアフィニティを構成できます。 Kubernetes でのアフィニティの構成の詳細については、[Assigning Pods to Nodes](https://kubernetes.io/docs/concepts/scheduling-eviction/assign-pod-node/) を参照してください。 +Kubernetes のアフィニティとアンチアフィニティと同じ構文を使用して、アフィニティとアンチアフィニティを構成できます。Kubernetes でのアフィニティの構成の詳細については、[Assigning Pods to Nodes](https://kubernetes.io/docs/concepts/scheduling-eviction/assign-pod-node/) を参照してください。 ```yaml scalardbAnalyticsPostgreSQL: @@ -102,7 +103,7 @@ scalardbAnalyticsPostgreSQL: PostgreSQL ポッドを使用して ScalarDB Analytics の SecurityContext と PodSecurityContext を設定するには、`scalardbAnalyticsPostgreSQL.securityContext`、`scalardbAnalyticsPostgreSQL.podSecurityContext`、および `schemaImporter.securityContext` を使用できます。 -Kubernetes の SecurityContext および PodSecurityContext と同じ構文を使用して、SecurityContext および PodSecurityContext を構成できます。 Kubernetes の SecurityContext および PodSecurityContext 構成の詳細については、[Configure a Security Context for a Pod or Container](https://kubernetes.io/docs/tasks/configure-pod-container/security-context/) を参照してください。 +Kubernetes の SecurityContext および PodSecurityContext と同じ構文を使用して、SecurityContext および PodSecurityContext を構成できます。Kubernetes の SecurityContext および PodSecurityContext 構成の詳細については、[Configure a Security Context for a Pod or Container](https://kubernetes.io/docs/tasks/configure-pod-container/security-context/) を参照してください。 ```yaml scalardbAnalyticsPostgreSQL: @@ -129,7 +130,7 @@ schemaImporter: ### 画像構成 (デフォルト値を推奨) -イメージ リポジトリを変更する場合は、`scalardbAnalyticsPostgreSQL.image.repository` と `schemaImporter.image.repository` を使用して、プルする ScalarDB Analytics with PostgreSQL および Schema Importer イメージのコンテナ リポジトリ情報を指定できます。 +イメージリポジトリを変更する場合は、`scalardbAnalyticsPostgreSQL.image.repository` と `schemaImporter.image.repository` を使用して、プルする ScalarDB Analytics with PostgreSQL および Schema Importer イメージのコンテナリポジトリ情報を指定できます。 ```yaml scalardbAnalyticsPostgreSQL: @@ -150,9 +151,9 @@ scalardbAnalyticsPostgreSQL: replicaCount: 3 ``` -### PostgreSQL database name configuration (optional based on your environment) +### PostgreSQL データベース名の構成 (環境に応じてオプション) -You can specify the database name that you create in PostgreSQL. Schema Importer creates some objects, such as a view of ScalarDB Analytics with PostgreSQL, in this database. +PostgreSQL で作成するデータベース名を指定できます。Schema Importer は、ScalarDB Analytics with PostgreSQL のビューなど、いくつかのオブジェクトをこのデータベースに作成します。 ```yaml scalardbAnalyticsPostgreSQL: @@ -172,7 +173,7 @@ scalardbAnalyticsPostgreSQL: :::note -PostgreSQL で ScalarDB Analytics をデプロイする前に、この名前 (デフォルトでは `scalardb-analytics-postgresql-superuser-password`) でシークレット リソースを作成する必要があります。 詳細については、[シークレットリソースを準備する](how-to-deploy-scalardb-analytics-postgresql.mdx#シークレットリソースを準備する) を参照してください。 +ScalarDB Analytics with PostgreSQL をデプロイする前に、この名前 (デフォルトでは `scalardb-analytics-postgresql-superuser-password`) でシークレットリソースを作成する必要があります。詳細については、[シークレットリソースを準備する](how-to-deploy-scalardb-analytics-postgresql.mdx#シークレットリソースを準備する)を参照してください。 ::: @@ -180,7 +181,7 @@ PostgreSQL で ScalarDB Analytics をデプロイする前に、この名前 ( Kubernetes でテイントと許容を使用してポッドのデプロイメントを制御したい場合は、`scalardbAnalyticsPostgreSQL.tolerations` を使用できます。 -Kubernetes の許容と同じ構文を使用して、テイントと許容を構成できます。 Kubernetes での許容設定の詳細については、Kubernetes の公式ドキュメント [Taints and Tolerations](https://kubernetes.io/docs/concepts/scheduling-eviction/taint-and-toleration/) を参照してください。 +Kubernetes の許容と同じ構文を使用して、テイントと許容を構成できます。Kubernetes での許容設定の詳細については、Kubernetes の公式ドキュメント [Taints and Tolerations](https://kubernetes.io/docs/concepts/scheduling-eviction/taint-and-toleration/) を参照してください。 ```yaml scalardbAnalyticsPostgreSQL: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-scalardb-cluster.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-scalardb-cluster.mdx index c8fafa8b..37cc07f1 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-scalardb-cluster.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-scalardb-cluster.mdx @@ -2,17 +2,18 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # ScalarDB Cluster のカスタム値ファイルを構成する -このドキュメントでは、ScalarDB Cluster チャートのカスタム値ファイルを作成する方法について説明します。 パラメータの詳細については、ScalarDB Cluster チャートの [README](https://github.com/scalar-labs/helm-charts/blob/main/charts/scalardb-cluster/README.md) を参照してください。 +このドキュメントでは、ScalarDB Cluster チャートのカスタム値ファイルを作成する方法について説明します。パラメータの詳細については、ScalarDB Cluster チャートの [README](https://github.com/scalar-labs/helm-charts/blob/main/charts/scalardb-cluster/README.md) を参照してください。 ## 必要な構成 ### 画像構成 -`scalardbCluster.image.repository`を設定する必要があります。 コンテナー リポジトリからイメージをプルできるように、必ず ScalarDB Cluster コンテナー イメージを指定してください。 +`scalardbCluster.image.repository`を設定する必要があります。コンテナーリポジトリからイメージをプルできるように、必ず ScalarDB Cluster コンテナーイメージを指定してください。 ```yaml scalardbCluster: @@ -22,7 +23,7 @@ scalardbCluster: ### データベース構成 -`scalardbCluster.scalardbClusterNodeProperties` を設定する必要があります。 このパラメータには `scalardb-cluster-node.properties` を設定してください。 ScalarDB Cluster の構成の詳細については、[ScalarDB Cluster Configurations](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/scalardb-cluster-configurations/) を参照してください。 +`scalardbCluster.scalardbClusterNodeProperties` を設定する必要があります。このパラメータには `scalardb-cluster-node.properties` を設定してください。ScalarDB Cluster の構成の詳細については、[ScalarDB Cluster Configurations](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/scalardb-cluster-configurations/) を参照してください。 ```yaml scalardbCluster: @@ -36,7 +37,7 @@ scalardbCluster: scalar.db.storage=cassandra ``` -Scalar Helm Chart を使用して Kubernetes 環境に ScalarDB Cluster をデプロイする場合は、次の 3 つのプロパティを常に設定する必要があることに注意してください。 これらのプロパティは固定値です。 プロパティは個別の環境に依存しないため、以下の値をコピーして `scalardbCluster.scalardbClusterNodeProperties` に貼り付けることで同じ値を設定できます。 +Scalar Helm Chart を使用して Kubernetes 環境に ScalarDB Cluster をデプロイする場合は、次の3つのプロパティを常に設定する必要があることに注意してください。これらのプロパティは固定値です。プロパティは個別の環境に依存しないため、以下の値をコピーして `scalardbCluster.scalardbClusterNodeProperties` に貼り付けることで同じ値を設定できます。 ```yaml scalardbCluster: @@ -50,11 +51,11 @@ scalardbCluster: ### リソース構成 (実稼働環境で推奨) -Kubernetes でリクエストと制限を使用してポッド リソースを制御するには、`scalardbCluster.resources` を使用できます。 +Kubernetes でリクエストと制限を使用してポッドリソースを制御するには、`scalardbCluster.resources` を使用できます。 -商用ライセンスの場合、Scalar 製品の各ポッドのリソースは 2vCPU / 4GB メモリに制限されることに注意してください。 また、AWS Marketplace が提供する従量課金制のコンテナを使用する場合、`resources.limits` の 2vCPU / 4GB メモリ構成を超えるコンテナを実行することはできません。 このリソース制限を超えると、ポッドは自動的に停止します。 +商用ライセンスの場合、Scalar 製品の各ポッドのリソースは 2vCPU / 4GB メモリに制限されることに注意してください。また、AWS Marketplace が提供する従量課金制のコンテナを使用する場合、`resources.limits` の 2vCPU / 4GB メモリ構成を超えるコンテナを実行することはできません。このリソース制限を超えると、ポッドは自動的に停止します。 -Kubernetes のリクエストと制限と同じ構文を使用して、リクエストと制限を構成できます。 Kubernetes のリクエストと制限の詳細については、[Resource Management for Pods and Containers](https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/) を参照してください。 +Kubernetes のリクエストと制限と同じ構文を使用して、リクエストと制限を構成できます。Kubernetes のリクエストと制限の詳細については、[Resource Management for Pods and Containers](https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/) を参照してください。 ```yaml scalardbCluster: @@ -71,9 +72,9 @@ scalardbCluster: 環境変数を使用して `scalardbCluster.scalardbClusterNodeProperties` 内の一部のプロパティ (資格情報など) を設定するには、`scalardbCluster.secretName` を使用して、いくつかの資格情報を含む Secret リソースを指定します。 -たとえば、環境変数を使用してバックエンド データベースの資格情報 (`scalar.db.username` および `scalar.db.password`) を設定できるため、ポッドの安全性が高まります。 +たとえば、環境変数を使用してバックエンドデータベースの資格情報 (`scalar.db.username` および `scalar.db.password`) を設定できるため、ポッドの安全性が高まります。 -Secret リソースの使用方法の詳細については、[Secret リソースを使用して資格情報を環境変数としてプロパティ ファイルに渡す方法](use-secret-for-credentials.mdx) を参照してください。 +Secret リソースの使用方法の詳細については、[Secret リソースを使用して資格情報を環境変数としてプロパティファイルに渡す方法](use-secret-for-credentials.mdx)を参照してください。 ```yaml scalardbCluster: @@ -84,7 +85,7 @@ scalardbCluster: Kubernetes でアフィニティとアンチアフィニティを使用してポッドのデプロイメントを制御するには、`scalardbCluster.affinity` を使用できます。 -Kubernetes のアフィニティとアンチアフィニティと同じ構文を使用して、アフィニティとアンチアフィニティを構成できます。 Kubernetes でのアフィニティの構成の詳細については、[Assigning Pods to Nodes](https://kubernetes.io/docs/concepts/scheduling-eviction/assign-pod-node/) を参照してください。 +Kubernetes のアフィニティとアンチアフィニティと同じ構文を使用して、アフィニティとアンチアフィニティを構成できます。Kubernetes でのアフィニティの構成の詳細については、[Assigning Pods to Nodes](https://kubernetes.io/docs/concepts/scheduling-eviction/assign-pod-node/) を参照してください。 ```yaml scalardbCluster: @@ -108,7 +109,7 @@ scalardbCluster: ### Prometheus および Grafana 構成 (実稼働環境で推奨) -[kube-prometheus-stack](https://github.com/prometheus-community/helm-charts/tree/main/charts/kube-prometheus-stack) を使用して ScalarDB Cluster ポッドを監視するには、`scalardbCluster.grafanaDashboard.enabled`、`scalardbCluster.serviceMonitor.enabled`、`scalardbCluster.prometheusRule.enabled` を `true` に設定します。 これらの構成を `true` に設定すると、チャートは必要なリソースをデプロイし、kube-prometheus-stack が自動的に監視を開始します。 +[kube-prometheus-stack](https://github.com/prometheus-community/helm-charts/tree/main/charts/kube-prometheus-stack) を使用して ScalarDB Cluster ポッドを監視するには、`scalardbCluster.grafanaDashboard.enabled`、`scalardbCluster.serviceMonitor.enabled`、`scalardbCluster.prometheusRule.enabled` を `true` に設定します。これらの構成を `true` に設定すると、チャートは必要なリソースをデプロイし、kube-prometheus-stack が自動的に監視を開始します。 ```yaml scalardbCluster: @@ -128,7 +129,7 @@ scalardbCluster: ScalarDB Cluster ポッドの SecurityContext と PodSecurityContext を設定するには、`scalardbCluster.securityContext` と `scalardbCluster.podSecurityContext` を使用できます。 -Kubernetes の SecurityContext および PodSecurityContext と同じ構文を使用して、SecurityContext および PodSecurityContext を構成できます。 Kubernetes の SecurityContext および PodSecurityContext 構成の詳細については、[Configure a Security Context for a Pod or Container](https://kubernetes.io/docs/tasks/configure-pod-container/security-context/) を参照してください。 +Kubernetes の SecurityContext および PodSecurityContext と同じ構文を使用して、SecurityContext および PodSecurityContext を構成できます。Kubernetes の SecurityContext および PodSecurityContext 構成の詳細については、[Configure a Security Context for a Pod or Container](https://kubernetes.io/docs/tasks/configure-pod-container/security-context/) を参照してください。 ```yaml scalardbCluster: @@ -150,7 +151,7 @@ TLS は、次の通信で有効にできます: - ScalarDB Cluster ノードとクライアント間の通信。 - すべての ScalarDB Cluster ノード間の通信 (クラスターの内部通信)。 -さらに、証明書管理にはいくつかのオプションがあります。詳細については、[Envoy の TLS 構成](./configure-custom-values-envoy.mdx#tls-構成-環境に応じてオプション) を参照してください。 +さらに、証明書管理にはいくつかのオプションがあります。詳細については、[Envoy の TLS 構成](./configure-custom-values-envoy.mdx#tls-構成-環境に応じてオプション)を参照してください。 セキュリティ要件に基づいて、どの方法を使用するかを検討する必要があります。各方法のガイダンスと関連ドキュメントについては、次の意思決定ツリーを参照してください。 @@ -187,7 +188,8 @@ scalardbCluster: tls: enabled: true ``` -##### 秘密鍵と証明書ファイルを使用する + +##### シークレットキーと証明書ファイルを使用する 次の構成を使用して、秘密鍵と証明書ファイルを設定できます。 @@ -208,7 +210,7 @@ kubectl create secret generic scalardb-cluster-tls-cert --from-file=tls.crt=/ -n ``` -秘密鍵と証明書ファイルを準備する方法の詳細については、[Scalar 製品の秘密鍵と証明書ファイルを作成する方法](../scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx) を参照してください。 +秘密鍵と証明書ファイルを準備する方法の詳細については、[Scalar 製品の秘密鍵と証明書ファイルを作成する方法](../scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx)を参照してください。 ##### cert-manager で信頼できる CA を使用して秘密鍵と証明書ファイルを管理する @@ -216,8 +218,8 @@ kubectl create secret generic scalardb-cluster-tls-key --from-file=tls.key=/:80/graphql` を使用して graphql クエリを実行できます。 +graphql クエリを実行するパスを変更したい場合は、`scalarDbGraphQlConfiguration.path` を使用できます。デフォルトでは、`http://:80/graphql` を使用して graphql クエリを実行できます。 -`scalarDbGraphQlConfiguration.graphiql`を使用して[GraphiQL](https://github.com/graphql/graphiql/tree/main/packages/graphiql) を有効/無効にすることもできます。 +`scalarDbGraphQlConfiguration.graphiql` を使用して [GraphiQL](https://github.com/graphql/graphiql/tree/main/packages/graphiql) を有効/無効にすることもできます。 ```yaml scalarDbGraphQlConfiguration: @@ -183,7 +184,7 @@ scalarDbGraphQlConfiguration: クライアントとイングレスの間で TLS を使用したい場合は、`ingress.tls` を使用できます。 -秘密キーと証明書ファイルを含むシークレット リソースを作成する必要があります。 Ingress の Secret リソースの詳細については、公式ドキュメント [Ingress - TLS](https://kubernetes.io/docs/concepts/services-networking/ingress/#tls) を参照してください。 +秘密鍵と証明書ファイルを含むシークレットリソースを作成する必要があります。Ingress の Secret リソースの詳細については、公式ドキュメント [Ingress - TLS](https://kubernetes.io/docs/concepts/services-networking/ingress/#tls) を参照してください。 ```yaml ingress: @@ -216,7 +217,7 @@ scalarDbGraphQlConfiguration: Kubernetes のテイントと許容範囲を使用してポッドのデプロイメントを制御したい場合は、`tolerations` を使用できます。 -Kubernetes の許容と同じ構文を使用して、テイントと許容を構成できます。 Kubernetes での許容設定の詳細については、Kubernetes の公式ドキュメント [Taints and Tolerations](https://kubernetes.io/docs/concepts/scheduling-eviction/taint-and-toleration/) を参照してください。 +Kubernetes の許容と同じ構文を使用して、テイントと許容を構成できます。Kubernetes での許容設定の詳細については、Kubernetes の公式ドキュメント [Taints and Tolerations](https://kubernetes.io/docs/concepts/scheduling-eviction/taint-and-toleration/) を参照してください。 ```yaml tolerations: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-scalardb.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-scalardb.mdx index 9b8f87c9..139f7bfe 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-scalardb.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-scalardb.mdx @@ -3,6 +3,7 @@ tags: - Enterprise Standard - Enterprise Premium - Deprecated +displayed_sidebar: docsJapanese --- # [非推奨] ScalarDB Server のカスタム値ファイルを構成する @@ -13,33 +14,33 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; :::note -ScalarDB Server は非推奨になりました。 代わりに [ScalarDB Cluster](configure-custom-values-scalardb-cluster.mdx) を使用してください。 +ScalarDB Server は非推奨になりました。代わりに [ScalarDB Cluster](configure-custom-values-scalardb-cluster.mdx) を使用してください。 ::: -このドキュメントでは、ScalarDB Server チャートのカスタム値ファイルを作成する方法について説明します。 パラメータの詳細を知りたい場合は、ScalarDB Server チャートの [README](https://github.com/scalar-labs/helm-charts/blob/main/charts/scalardb/README.md) を参照してください。 +このドキュメントでは、ScalarDB Server チャートのカスタム値ファイルを作成する方法について説明します。パラメータの詳細を知りたい場合は、ScalarDB Server チャートの [README](https://github.com/scalar-labs/helm-charts/blob/main/charts/scalardb/README.md) を参照してください。 ## 必要な構成 ### Scalar Envoy 構成 -ScalarDB Server のカスタム値ファイルに Scalar Envoy 構成を設定する必要があります。 これは、ScalarDB Server を Kubernetes 環境にデプロイする場合、クライアント リクエストが gRPC リクエストのロード バランサーとして Scalar Envoy 経由で ScalarDB Server に送信されるためです。 +ScalarDB Server のカスタム値ファイルに Scalar Envoy 構成を設定する必要があります。これは、ScalarDB Server を Kubernetes 環境にデプロイする場合、クライアントリクエストが gRPC リクエストのロードバランサーとして Scalar Envoy 経由で ScalarDB Server に送信されるためです。 -Scalar Envoy 構成の詳細については、ドキュメント [Scalar Envoy のカスタム値ファイルの構成](configure-custom-values-envoy.mdx) を参照してください。 +Scalar Envoy 構成の詳細については、ドキュメント [Scalar Envoy のカスタム値ファイルの構成](configure-custom-values-envoy.mdx)を参照してください。 ```yaml envoy: - configurationsForScalarEnvoy: + configurationsForScalarEnvoy: ... scalardb: - configurationsForScalarDB: + configurationsForScalarDB: ... ``` ### 画像構成 -`scalardb.image.repository`を設定する必要があります。 コンテナー リポジトリからイメージをプルできるように、必ず ScalarDB Server コンテナー イメージを指定してください。 +`scalardb.image.repository`を設定する必要があります。コンテナーリポジトリからイメージをプルできるように、必ず ScalarDB Server コンテナーイメージを指定してください。 ```yaml scalardb: @@ -54,7 +55,7 @@ AWS または Azure を使用している場合、詳細については次のド ### データベース構成 -`scalardb.databaseProperties` を設定する必要があります。 `database.properties` をこのパラメータに設定してください。 ScalarDB Server の設定の詳細については、[Configure ScalarDB Server](https://scalardb.scalar-labs.com/docs/latest/scalardb-server.mdx#configure-scalardb-server) を参照してください。 +`scalardb.databaseProperties` を設定する必要があります。`database.properties` をこのパラメータに設定してください。ScalarDB Server の設定の詳細については、[Configure ScalarDB Server](https://scalardb.scalar-labs.com/docs/latest/scalardb-server.mdx#configure-scalardb-server) を参照してください。 ```yaml scalardb: @@ -77,11 +78,11 @@ scalardb: ### リソース構成 (本番環境で推奨) -Kubernetes のリクエストと制限を使用してポッド リソースを制御したい場合は、`scalardb.resources` を使用できます。 +Kubernetes のリクエストと制限を使用してポッドリソースを制御したい場合は、`scalardb.resources` を使用できます。 -商用ライセンスの観点から、Scalar 製品の 1 つのポッドのリソースは 2vCPU / 4GB メモリに制限されていることに注意してください。 また、AWS Marketplace から提供される従量課金制のコンテナを取得する場合、`resources.limits` で 2vCPU / 4GB を超えるメモリ構成でそれらのコンテナを実行することはできません。 この制限を超えると、ポッドは自動的に停止されます。 +商用ライセンスの観点から、Scalar 製品の1つのポッドのリソースは 2vCPU / 4GB メモリに制限されていることに注意してください。また、AWS Marketplace から提供される従量課金制のコンテナを取得する場合、`resources.limits` で 2vCPU / 4GB を超えるメモリ構成でそれらのコンテナを実行することはできません。この制限を超えると、ポッドは自動的に停止されます。 -これらは、Kubernetes のリクエストと制限と同じ構文を使用して構成できます。 そのため、Kubernetes の要求と制限の詳細については、公式ドキュメント [Pod およびコンテナーのリソース管理](https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/) を参照してください。 +これらは、Kubernetes のリクエストと制限と同じ構文を使用して構成できます。そのため、Kubernetes の要求と制限の詳細については、公式ドキュメント [Pod およびコンテナーのリソース管理](https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/)を参照してください。 ```yaml scalardb: @@ -98,9 +99,9 @@ scalardb: 環境変数を使用して `scalardb.databaseProperties` 内の一部のプロパティ (資格情報など) を設定したい場合は、`scalardb.secretName` を使用して、いくつかの資格情報を含む Secret リソースを指定できます。 -たとえば、環境変数を使用してバックエンド データベースの資格情報 (`scalar.db.username` および `scalar.db.password`) を設定でき、これによりポッドの安全性が高まります。 +たとえば、環境変数を使用してバックエンドデータベースの資格情報 (`scalar.db.username` および `scalar.db.password`) を設定でき、これによりポッドの安全性が高まります。 -Secret リソースの使用方法の詳細については、ドキュメント [Secret リソースを使用して資格情報を環境変数としてプロパティ ファイルに渡す方法](use-secret-for-credentials.mdx) を参照してください。 +Secret リソースの使用方法の詳細については、ドキュメント [Secret リソースを使用して資格情報を環境変数としてプロパティファイルに渡す方法](use-secret-for-credentials.mdx)を参照してください。 ```yaml scalardb: @@ -111,7 +112,7 @@ scalardb: Kubernetes のアフィニティと反アフィニティを使用してポッドのデプロイメントを制御したい場合は、`scalardb.affinity` を使用できます。 -Kubernetes のアフィニティと同じ構文を使用して構成できます。 そのため、Kubernetes のアフィニティ設定の詳細については、公式ドキュメント [Assigning Pods to Nodes](https://kubernetes.io/docs/concepts/scheduling-eviction/assign-pod-node/) を参照してください。 +Kubernetes のアフィニティと同じ構文を使用して構成できます。そのため、Kubernetes のアフィニティ設定の詳細については、公式ドキュメント [Assigning Pods to Nodes](https://kubernetes.io/docs/concepts/scheduling-eviction/assign-pod-node/) を参照してください。 ```yaml scalardb: @@ -135,7 +136,7 @@ scalardb: ### Prometheus/Grafana 構成 (運用環境で推奨) -[kube-prometheus-stack](https://github.com/prometheus-community/helm-charts/tree/main/charts/kube-prometheus-stack) を使用して ScalarDB Server ポッドを監視する場合は、`scalardb.grafanaDashboard.enabled`、`scalardb.serviceMonitor` を使用して、kube-prometheus-stack の ConfigMap、ServiceMonitor、および PrometheusRule リソースをデプロイできます。 `enabled`および `scalardb.prometheusRule.enabled`。 +[kube-prometheus-stack](https://github.com/prometheus-community/helm-charts/tree/main/charts/kube-prometheus-stack) を使用して ScalarDB Server ポッドを監視する場合は、`scalardb.grafanaDashboard.enabled`、`scalardb.serviceMonitor` を使用して、kube-prometheus-stack の ConfigMap、ServiceMonitor、および PrometheusRule リソースをデプロイできます。`enabled`および `scalardb.prometheusRule.enabled`。 ```yaml scalardb: @@ -155,7 +156,7 @@ scalardb: ScalarDB Server ポッドに SecurityContext と PodSecurityContext を設定したい場合は、`scalardb.securityContext` と `scalardb.podSecurityContext` を使用できます。 -KubernetesのSecurityContextやPodSecurityContextと同じ構文を使用して設定できます。 したがって、Kubernetes の SecurityContext および PodSecurityContext 構成の詳細については、公式ドキュメント [Configure a Security Context for a Pod or Container](https://kubernetes.io/docs/tasks/configure-pod-container/security-context/) を参照してください。 +KubernetesのSecurityContextやPodSecurityContextと同じ構文を使用して設定できます。したがって、Kubernetes の SecurityContext および PodSecurityContext 構成の詳細については、公式ドキュメント [Configure a Security Context for a Pod or Container](https://kubernetes.io/docs/tasks/configure-pod-container/security-context/) を参照してください。 ```yaml scalardb: @@ -193,7 +194,7 @@ scalardb: Kubernetes のテイントと許容を使用してポッドのデプロイメントを制御したい場合は、`scalardb.tolerations` を使用できます。 -Kubernetes の許容と同じ構文を使用して、テイントと許容を構成できます。 Kubernetes での許容設定の詳細については、Kubernetes の公式ドキュメント [Taints and Tolerations](https://kubernetes.io/docs/concepts/scheduling-eviction/taint-and-toleration/) を参照してください。 +Kubernetes の許容と同じ構文を使用して、テイントと許容を構成できます。Kubernetes での許容設定の詳細については、Kubernetes の公式ドキュメント [Taints and Tolerations](https://kubernetes.io/docs/concepts/scheduling-eviction/taint-and-toleration/) を参照してください。 ```yaml scalardb: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-scalardl-auditor.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-scalardl-auditor.mdx index 71e19669..33d42eee 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-scalardl-auditor.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-scalardl-auditor.mdx @@ -1,31 +1,32 @@ --- +displayed_sidebar: docsJapanese --- # ScalarDL Auditor のカスタム値ファイルを構成する -このドキュメントでは、ScalarDL Auditor チャートのカスタム値ファイルを作成する方法について説明します。 パラメータの詳細を知りたい場合は、ScalarDL Auditor チャートの [README](https://github.com/scalar-labs/helm-charts/blob/main/charts/scalardl-audit/README.md) を参照してください。 +このドキュメントでは、ScalarDL Auditor チャートのカスタム値ファイルを作成する方法について説明します。パラメータの詳細を知りたい場合は、ScalarDL Auditor チャートの [README](https://github.com/scalar-labs/helm-charts/blob/main/charts/scalardl-audit/README.md) を参照してください。 ## 必要な構成 ### Scalar Envoy 構成 -ScalarDL Auditor のカスタム値ファイルで Scalar Envoy 構成を設定する必要があります。 これは、ScalarDL Auditor を Kubernetes 環境にデプロイする場合、クライアント リクエストが gRPC リクエストのロード バランサーとして Scalar Envoy 経由で ScalarDL Auditor に送信されるためです。 +ScalarDL Auditor のカスタム値ファイルで Scalar Envoy 構成を設定する必要があります。これは、ScalarDL Auditor を Kubernetes 環境にデプロイする場合、クライアントリクエストが gRPC リクエストのロードバランサーとして Scalar Envoy 経由で ScalarDL Auditor に送信されるためです。 -Scalar Envoy 構成の詳細については、ドキュメント [Scalar Envoy のカスタム値ファイルの構成](configure-custom-values-envoy.mdx) を参照してください。 +Scalar Envoy 構成の詳細については、ドキュメント [Scalar Envoy のカスタム値ファイルの構成](configure-custom-values-envoy.mdx)を参照してください。 ```yaml envoy: - configurationsForScalarEnvoy: + configurationsForScalarEnvoy: ... auditor: - configurationsForScalarDLAuditor: + configurationsForScalarDLAuditor: ... ``` ### 画像構成 -`auditor.image.repository` を設定する必要があります。 コンテナー リポジトリからイメージをプルできるように、必ず ScalarDL Auditor コンテナー イメージを指定してください。 +`auditor.image.repository` を設定する必要があります。コンテナーリポジトリからイメージをプルできるように、必ず ScalarDL Auditor コンテナーイメージを指定してください。 ```yaml auditor: @@ -33,11 +34,11 @@ auditor: repository: ``` -Scalar 製品のコンテナリポジトリの詳細については、[Scalar 製品のコンテナ イメージを取得する方法](../scalar-kubernetes/HowToGetContainerImages.mdx) を参照してください。 +Scalar 製品のコンテナリポジトリの詳細については、[Scalar 製品のコンテナイメージを取得する方法](../scalar-kubernetes/HowToGetContainerImages.mdx)を参照してください。 ### Auditor / データベースの構成 -`auditor.auditorProperties` を設定する必要があります。 `auditor.properties` をこのパラメータに設定してください。 ScalarDL Auditor の設定の詳細については、[auditor.properties](https://github.com/scalar-labs/scalar/blob/master/auditor/conf/auditor.properties) を参照してください。 +`auditor.auditorProperties` を設定する必要があります。`auditor.properties` をこのパラメータに設定してください。ScalarDL Auditor の設定の詳細については、[auditor.properties](https://github.com/scalar-labs/scalar/blob/master/auditor/conf/auditor.properties) を参照してください。 ```yaml auditor: @@ -55,19 +56,19 @@ auditor: 秘密鍵ファイルを `scalar.dl.auditor.private_key_path` に設定し、証明書ファイルを `scalar.dl.auditor.cert_path` に設定する必要があります。 -秘密キー ファイルと証明書ファイルも ScalarDL Auditor ポッドにマウントする必要があります。 +秘密鍵ファイルと証明書ファイルも ScalarDL Auditor ポッドにマウントする必要があります。 -秘密キー ファイルと証明書ファイルをマウントする方法の詳細については、[ScalarDL Helm Charts のポッドにキーファイルと証明書ファイルをマウントする](mount-files-or-volumes-on-scalar-pods.mdx#scalardl-helm-charts-のポッドにキーファイルと証明書ファイルをマウントする) を参照してください。 +秘密鍵ファイルと証明書ファイルをマウントする方法の詳細については、[ScalarDL Helm Charts のポッドに秘密鍵ファイルと証明書ファイルをマウントする](mount-files-or-volumes-on-scalar-pods.mdx#scalardl-helm-charts-のポッドにキーファイルと証明書ファイルをマウントする)を参照してください。 ## オプションの構成 ### リソース構成 (本番環境で推奨) -Kubernetes のリクエストと制限を使用してポッド リソースを制御したい場合は、`auditor.resources` を使用できます。 +Kubernetes のリクエストと制限を使用してポッドリソースを制御したい場合は、`auditor.resources` を使用できます。 -商用ライセンスの観点から、Scalar 製品の 1 つのポッドのリソースは 2vCPU / 4GB メモリに制限されていることに注意してください。 また、AWS Marketplace から提供される従量課金制のコンテナを取得する場合、`resources.limits` で 2vCPU / 4GB を超えるメモリ構成でそれらのコンテナを実行することはできません。 この制限を超えると、ポッドは自動的に停止されます。 +商用ライセンスの観点から、Scalar 製品の1つのポッドのリソースは 2vCPU / 4GB メモリに制限されていることに注意してください。また、AWS Marketplace から提供される従量課金制のコンテナを取得する場合、`resources.limits` で 2vCPU / 4GB を超えるメモリ構成でそれらのコンテナを実行することはできません。この制限を超えると、ポッドは自動的に停止されます。 -これらは、Kubernetes のリクエストと制限と同じ構文を使用して構成できます。 そのため、Kubernetes の要求と制限の詳細については、公式ドキュメント [Resource Management for Pods and Containers](https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/) を参照してください。 +これらは、Kubernetes のリクエストと制限と同じ構文を使用して構成できます。そのため、Kubernetes の要求と制限の詳細については、公式ドキュメント [Resource Management for Pods and Containers](https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/) を参照してください。 ```yaml auditor: @@ -84,9 +85,9 @@ auditor: 環境変数を使用して `auditor.auditorProperties` 内の一部のプロパティ (資格情報など) を設定したい場合は、`auditor.secretName` を使用して、いくつかの資格情報を含む Secret リソースを指定できます。 -たとえば、環境変数を使用してバックエンド データベースの資格情報 (`scalar.db.username` および `scalar.db.password`) を設定でき、これによりポッドの安全性が高まります。 +たとえば、環境変数を使用してバックエンドデータベースの資格情報 (`scalar.db.username` および `scalar.db.password`) を設定でき、これによりポッドの安全性が高まります。 -Secret リソースの使用方法の詳細については、ドキュメント [Secret リソースを使用して資格情報を環境変数としてプロパティ ファイルに渡す方法](use-secret-for-credentials.mdx) を参照してください。 +Secret リソースの使用方法の詳細については、ドキュメント [Secret リソースを使用して資格情報を環境変数としてプロパティファイルに渡す方法](use-secret-for-credentials.mdx)を参照してください。 ```yaml auditor: @@ -97,7 +98,7 @@ auditor: Kubernetes のアフィニティと反アフィニティを使用してポッドのデプロイメントを制御したい場合は、`auditor.affinity` を使用できます。 -Kubernetes のアフィニティと同じ構文を使用して構成できます。 そのため、Kubernetes のアフィニティ設定の詳細については、公式ドキュメント [Assigning Pods to Nodes](https://kubernetes.io/docs/concepts/scheduling-eviction/assign-pod-node/) を参照してください。 +Kubernetes のアフィニティと同じ構文を使用して構成できます。そのため、Kubernetes のアフィニティ設定の詳細については、公式ドキュメント [Assigning Pods to Nodes](https://kubernetes.io/docs/concepts/scheduling-eviction/assign-pod-node/) を参照してください。 ```yaml auditor: @@ -121,7 +122,7 @@ auditor: ### Prometheus/Grafana 構成 (運用環境で推奨) -[kube-prometheus-stack](https://github.com/prometheus-community/helm-charts/tree/main/charts/kube-prometheus-stack) を使用して ScalarDL Auditor ポッドを監視する場合は、`auditor.grafanaDashboard.enabled`、`auditor.serviceMonitor` を使用して、kube-prometheus-stack の ConfigMap、ServiceMonitor、および PrometheusRule リソースをデプロイできます。 `enabled` および `auditor.prometheusRule.enabled`。 +[kube-prometheus-stack](https://github.com/prometheus-community/helm-charts/tree/main/charts/kube-prometheus-stack) を使用して ScalarDL Auditor ポッドを監視する場合は、`auditor.grafanaDashboard.enabled`、`auditor.serviceMonitor` を使用して、kube-prometheus-stack の ConfigMap、ServiceMonitor、および PrometheusRule リソースをデプロイできます。`enabled` および `auditor.prometheusRule.enabled`。 ```yaml auditor: @@ -141,7 +142,7 @@ auditor: ScalarDL Auditor ポッドに SecurityContext と PodSecurityContext を設定したい場合は、`auditor.securityContext` と `auditor.podSecurityContext` を使用できます。 -KubernetesのSecurityContextやPodSecurityContextと同じ構文を使用して設定できます。 したがって、Kubernetes の SecurityContext および PodSecurityContext 構成の詳細については、公式ドキュメント [Configure a Security Context for a Pod or Container](https://kubernetes.io/docs/tasks/configure-pod-container/security-context/) を参照してください。 +KubernetesのSecurityContextやPodSecurityContextと同じ構文を使用して設定できます。したがって、Kubernetes の SecurityContext および PodSecurityContext 構成の詳細については、公式ドキュメント [Configure a Security Context for a Pod or Container](https://kubernetes.io/docs/tasks/configure-pod-container/security-context/) を参照してください。 ```yaml auditor: @@ -163,7 +164,7 @@ TLS は、次の通信で有効にできます: - ScalarDL Auditor とクライアント間の通信。 - ScalarDL Ledger と ScalarDL Auditor 間の通信。 -さらに、証明書管理にはいくつかのオプションがあります。詳細については、[Envoy の TLS 構成](./configure-custom-values-envoy.mdx#tls-構成-環境に応じてオプション) を参照してください。 +さらに、証明書管理にはいくつかのオプションがあります。詳細については、[Envoy の TLS 構成](./configure-custom-values-envoy.mdx#tls-構成-環境に応じてオプション)を参照してください。 セキュリティ要件に基づいて、どの方法を使用するかを検討する必要があります。各方法のガイダンスと関連ドキュメントについては、次の意思決定ツリーを参照してください。 @@ -215,7 +216,7 @@ auditor: privateKeySecret: "scalardl-auditor-tls-key" ``` -この場合、次のように、山括弧内の内容を置き換えて、ScalarDL Ledger および ScalarDL Auditor の秘密キーと証明書ファイルを含むシークレットリソースを作成する必要があります。 +この場合、次のように、山括弧内の内容を置き換えて、ScalarDL Ledger および ScalarDL Auditor の秘密鍵と証明書ファイルを含むシークレットリソースを作成する必要があります。 ```console kubectl create secret generic scalardl-auditor-tls-ca --from-file=ca.crt=/ -n @@ -224,7 +225,7 @@ kubectl create secret generic scalardl-auditor-tls-key --from-file=tls.key=/ -n ``` -秘密鍵と証明書ファイルを準備する方法の詳細については、[Scalar 製品の秘密鍵と証明書ファイルを作成する方法](../scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx) を参照してください。 +秘密鍵と証明書ファイルを準備する方法の詳細については、[Scalar 製品の秘密鍵と証明書ファイルを作成する方法](../scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx)を参照してください。 ##### cert-manager で信頼できる CA を使用して秘密鍵と証明書ファイルを管理する @@ -232,8 +233,8 @@ kubectl create secret generic scalardl-auditor-tls-ca-for-ledger --from-file=ca. :::note -* cert-manager を使用する場合は、cert-manager をデプロイし、`Issuers` リソースを準備する必要があります。詳細については、cert-manager のドキュメント、[インストール](https://cert-manager.io/docs/installation/) および [発行者構成](https://cert-manager.io/docs/configuration/) を参照してください。 -* デフォルトでは、Scalar Helm Chart は Scalar 製品の証明書要件を満たす `Certificate` リソースを作成します。デフォルトの証明書構成が推奨されますが、カスタム証明書構成を使用する場合は、Scalar 製品の証明書要件を満たす必要があります。詳細については、[Scalar 製品の秘密キーと証明書ファイルを作成する方法](../scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx#certificate-requirements) を参照してください。 +* cert-manager を使用する場合は、cert-manager をデプロイし、`Issuers` リソースを準備する必要があります。詳細については、cert-manager のドキュメント、[インストール](https://cert-manager.io/docs/installation/)および[発行者構成](https://cert-manager.io/docs/configuration/)を参照してください。 +* デフォルトでは、Scalar Helm Chart は Scalar 製品の証明書要件を満たす `Certificate` リソースを作成します。デフォルトの証明書構成が推奨されますが、カスタム証明書構成を使用する場合は、Scalar 製品の証明書要件を満たす必要があります。詳細については、[Scalar 製品の秘密鍵と証明書ファイルを作成する方法](../scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx#certificate-requirements)を参照してください。 ::: @@ -253,12 +254,12 @@ auditor: ##### cert-manager で自己署名 CA を使用して秘密鍵と証明書ファイルを管理する -次の構成を使用して、cert-manager で秘密キーと自己署名証明書ファイルを管理できます。 +次の構成を使用して、cert-manager で秘密鍵と自己署名証明書ファイルを管理できます。 :::note -* cert-manager を使用する場合は、cert-manager をデプロイする必要があります。詳細については、cert-manager のドキュメント [インストール](https://cert-manager.io/docs/installation/) を参照してください。 -* デフォルトでは、Scalar Helm Chart は Scalar 製品の証明書要件を満たす `Certificate` リソースを作成します。デフォルトの証明書構成が推奨されますが、カスタム証明書構成を使用する場合は、Scalar 製品の証明書要件を満たす必要があります。詳細については、[Scalar 製品の秘密キーと証明書ファイルを作成する方法](../scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx#certificate-requirements) を参照してください。 +* cert-manager を使用する場合は、cert-manager をデプロイする必要があります。詳細については、cert-manager のドキュメント[インストール](https://cert-manager.io/docs/installation/)を参照してください。 +* デフォルトでは、Scalar Helm Chart は Scalar 製品の証明書要件を満たす `Certificate` リソースを作成します。デフォルトの証明書構成が推奨されますが、カスタム証明書構成を使用する場合は、Scalar 製品の証明書要件を満たす必要があります。詳細については、[Scalar 製品の秘密鍵と証明書ファイルを作成する方法](../scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx#certificate-requirements)を参照してください。 ::: @@ -308,7 +309,7 @@ kubectl create secret generic scalardl-auditor-tls-ca-for-ledger --from-file=ca. ##### TLS通信のカスタム権限を設定する -`auditor.tls.overrideAuthority` を使用して、TLS 通信のカスタム権限を設定できます。この値によって、実際に接続されているホストが変わることはありません。この値はテスト用ですが、DNS オーバーライドの代替としてテスト以外でも安全に使用できます。たとえば、`auditor.tls.certChainSecret` を使用して設定した証明書チェーン ファイルで提示されるホスト名を指定できます。このチャートでは、`startupProbe` と `livenessProbe` にこの値を使用しています。 +`auditor.tls.overrideAuthority` を使用して、TLS 通信のカスタム権限を設定できます。この値によって、実際に接続されているホストが変わることはありません。この値はテスト用ですが、DNS オーバーライドの代替としてテスト以外でも安全に使用できます。たとえば、`auditor.tls.certChainSecret` を使用して設定した証明書チェーンファイルで提示されるホスト名を指定できます。このチャートでは、`startupProbe` と `livenessProbe` にこの値を使用しています。 ### レプリカ構成 (環境に応じてオプション) @@ -333,7 +334,7 @@ auditor: Kubernetes のテイントと許容を使用してポッドのデプロイメントを制御したい場合は、`auditor.tolerations` を使用できます。 -Kubernetes の許容と同じ構文を使用して、テイントと許容を構成できます。 Kubernetes での許容設定の詳細については、Kubernetes の公式ドキュメント [Taints and Tolerations](https://kubernetes.io/docs/concepts/scheduling-eviction/taint-and-toleration/) を参照してください。 +Kubernetes の許容と同じ構文を使用して、テイントと許容を構成できます。Kubernetes での許容設定の詳細については、Kubernetes の公式ドキュメント [Taints and Tolerations](https://kubernetes.io/docs/concepts/scheduling-eviction/taint-and-toleration/) を参照してください。 ```yaml auditor: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-scalardl-ledger.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-scalardl-ledger.mdx index 79b0b6cc..482b59ae 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-scalardl-ledger.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-scalardl-ledger.mdx @@ -1,31 +1,32 @@ --- +displayed_sidebar: docsJapanese --- # ScalarDL Ledger のカスタム値ファイルを構成する -このドキュメントでは、ScalarDL Ledger チャートのカスタム値ファイルを作成する方法について説明します。 パラメータの詳細を知りたい場合は、ScalarDL Ledger chartの [README](https://github.com/scalar-labs/helm-charts/blob/main/charts/scalardl/README.md) を参照してください。 +このドキュメントでは、ScalarDL Ledger チャートのカスタム値ファイルを作成する方法について説明します。パラメータの詳細を知りたい場合は、ScalarDL Ledger chartの [README](https://github.com/scalar-labs/helm-charts/blob/main/charts/scalardl/README.md) を参照してください。 ## 必要な構成 ### Scalar Envoy 構成 -ScalarDL Ledger のカスタム値ファイルで Scalar Envoy 構成を設定する必要があります。 これは、ScalarDL Ledger を Kubernetes 環境にデプロイする場合、クライアント リクエストが gRPC リクエストのロード バランサーとして Scalar Envoy 経由で ScalarDL Ledger に送信されるためです。 +ScalarDL Ledger のカスタム値ファイルで Scalar Envoy 構成を設定する必要があります。これは、ScalarDL Ledger を Kubernetes 環境にデプロイする場合、クライアントリクエストが gRPC リクエストのロードバランサーとして Scalar Envoy 経由で ScalarDL Ledger に送信されるためです。 -Scalar Envoy 構成の詳細については、ドキュメント [Scalar Envoy のカスタム値ファイルの構成](configure-custom-values-envoy.mdx) を参照してください。 +Scalar Envoy 構成の詳細については、ドキュメント [Scalar Envoy のカスタム値ファイルの構成](configure-custom-values-envoy.mdx)を参照してください。 ```yaml envoy: - configurationsForScalarEnvoy: + configurationsForScalarEnvoy: ... ledger: - configurationsForScalarDLLedger: + configurationsForScalarDLLedger: ... ``` ### 画像構成 -`ledger.image.repository` を設定する必要があります。 コンテナ リポジトリからイメージをプルできるように、ScalarDL Ledger コンテナ イメージを必ず指定してください。 +`ledger.image.repository` を設定する必要があります。コンテナリポジトリからイメージをプルできるように、ScalarDL Ledger コンテナイメージを必ず指定してください。 ```yaml ledger: @@ -33,11 +34,11 @@ ledger: repository: ``` -Scalar 製品のコンテナリポジトリの詳細については、[Scalar 製品のコンテナ イメージを取得する方法](../scalar-kubernetes/HowToGetContainerImages.mdx) を参照してください。 +Scalar 製品のコンテナリポジトリの詳細については、[Scalar 製品のコンテナイメージを取得する方法](../scalar-kubernetes/HowToGetContainerImages.mdx)を参照してください。 ### Ledger/データベースの構成 -`ledger.ledgerProperties` を設定する必要があります。 `ledger.properties` をこのパラメータに設定してください。 ScalarDL Ledger の構成の詳細については、[ledger.properties](https://github.com/scalar-labs/scalar/blob/master/ledger/conf/ledger.properties) を参照してください。 +`ledger.ledgerProperties` を設定する必要があります。`ledger.properties` をこのパラメータに設定してください。ScalarDL Ledger の構成の詳細については、[ledger.properties](https://github.com/scalar-labs/scalar/blob/master/ledger/conf/ledger.properties) を参照してください。 ```yaml ledger: @@ -55,19 +56,19 @@ ledger: `scalar.dl.ledger.proof.enabled` を `true` に設定した場合 (この設定は ScalarDL Auditor を使用する場合に必要です)、秘密鍵ファイルを `scalar.dl.ledger.proof.private_key_path` に設定する必要があります。 -この場合、秘密キー ファイルを ScalarDL Ledger ポッドにマウントする必要があります。 +この場合、秘密鍵ファイルを ScalarDL Ledger ポッドにマウントする必要があります。 -秘密キー ファイルをマウントする方法の詳細については、[ScalarDL Helm Charts のポッドにキーファイルと証明書ファイルをマウントする](mount-files-or-volumes-on-scalar-pods.mdx#scalardl-helm-charts-のポッドにキーファイルと証明書ファイルをマウントする) を参照してください。 +秘密鍵ファイルをマウントする方法の詳細については、[ScalarDL Helm Charts のポッドに秘密鍵ファイルと証明書ファイルをマウントする](mount-files-or-volumes-on-scalar-pods.mdx#scalardl-helm-charts-のポッドにキーファイルと証明書ファイルをマウントする)を参照してください。 ## オプションの構成 ### リソース構成 (本番環境で推奨) -Kubernetes のリクエストと制限を使用してポッド リソースを制御したい場合は、`ledger.resources` を使用できます。 +Kubernetes のリクエストと制限を使用してポッドリソースを制御したい場合は、`ledger.resources` を使用できます。 -商用ライセンスの観点から、Scalar 製品の 1 つのポッドのリソースは 2vCPU / 4GB メモリに制限されていることに注意してください。 また、AWS Marketplace から提供される従量課金制のコンテナを取得する場合、`resources.limits` で 2vCPU / 4GB を超えるメモリ構成でそれらのコンテナを実行することはできません。 この制限を超えると、ポッドは自動的に停止されます。 +商用ライセンスの観点から、Scalar 製品の1つのポッドのリソースは 2vCPU / 4GB メモリに制限されていることに注意してください。また、AWS Marketplace から提供される従量課金制のコンテナを取得する場合、`resources.limits` で 2vCPU / 4GB を超えるメモリ構成でそれらのコンテナを実行することはできません。この制限を超えると、ポッドは自動的に停止されます。 -これらは、Kubernetes のリクエストと制限と同じ構文を使用して構成できます。 そのため、Kubernetes の要求と制限の詳細については、公式ドキュメント [Resource Management for Pods and Containers](https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/) を参照してください。 +これらは、Kubernetes のリクエストと制限と同じ構文を使用して構成できます。そのため、Kubernetes の要求と制限の詳細については、公式ドキュメント [Resource Management for Pods and Containers](https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/) を参照してください。 ```yaml ledger: @@ -84,9 +85,9 @@ ledger: 環境変数を使用して `ledger.ledgerProperties` 内の一部のプロパティ (資格情報など) を設定したい場合は、`ledger.secretName` を使用して、いくつかの資格情報を含む Secret リソースを指定できます。 -たとえば、環境変数を使用してバックエンド データベースの資格情報 (`scalar.db.username` および `scalar.db.password`) を設定でき、これによりポッドの安全性が高まります。 +たとえば、環境変数を使用してバックエンドデータベースの資格情報 (`scalar.db.username` および `scalar.db.password`) を設定でき、これによりポッドの安全性が高まります。 -Secret リソースの使用方法の詳細については、ドキュメント [Secret リソースを使用して資格情報を環境変数としてプロパティ ファイルに渡す方法](use-secret-for-credentials.mdx) を参照してください。 +Secret リソースの使用方法の詳細については、ドキュメント [Secret リソースを使用して資格情報を環境変数としてプロパティファイルに渡す方法](use-secret-for-credentials.mdx)を参照してください。 ```yaml ledger: @@ -97,7 +98,7 @@ ledger: Kubernetes のアフィニティと反アフィニティを使用してポッドのデプロイメントを制御したい場合は、`ledger.affinity` を使用できます。 -Kubernetes のアフィニティと同じ構文を使用して構成できます。 そのため、Kubernetes のアフィニティ設定の詳細については、公式ドキュメント [Assigning Pods to Nodes](https://kubernetes.io/docs/concepts/scheduling-eviction/assign-pod-node/) を参照してください。 +Kubernetes のアフィニティと同じ構文を使用して構成できます。そのため、Kubernetes のアフィニティ設定の詳細については、公式ドキュメント [Assigning Pods to Nodes](https://kubernetes.io/docs/concepts/scheduling-eviction/assign-pod-node/) を参照してください。 ```yaml ledger: @@ -121,7 +122,7 @@ ledger: ### Prometheus/Grafana 構成 (運用環境で推奨) -[kube-prometheus-stack](https://github.com/prometheus-community/helm-charts/tree/main/charts/kube-prometheus-stack) を使用して ScalarDL Ledger ポッドを監視する場合は、`ledger.grafanaDashboard.enabled`、`ledger.serviceMonitor` を使用して、kube-prometheus-stack の ConfigMap、ServiceMonitor、および PrometheusRule リソースをデプロイできます。 `enabled` および `ledger.prometheusRule.enabled`。 +[kube-prometheus-stack](https://github.com/prometheus-community/helm-charts/tree/main/charts/kube-prometheus-stack) を使用して ScalarDL Ledger ポッドを監視する場合は、`ledger.grafanaDashboard.enabled`、`ledger.serviceMonitor` を使用して、kube-prometheus-stack の ConfigMap、ServiceMonitor、および PrometheusRule リソースをデプロイできます。`enabled` および `ledger.prometheusRule.enabled`。 ```yaml ledger: @@ -141,7 +142,7 @@ ledger: ScalarDL Ledger ポッドに SecurityContext と PodSecurityContext を設定したい場合は、`ledger.securityContext` と `ledger.podSecurityContext` を使用できます。 -KubernetesのSecurityContextやPodSecurityContextと同じ構文を使用して設定できます。 したがって、Kubernetes の SecurityContext および PodSecurityContext 構成の詳細については、公式ドキュメント [Configure a Security Context for a Pod or Container](https://kubernetes.io/docs/tasks/configure-pod-container/security-context/) を参照してください。 +KubernetesのSecurityContextやPodSecurityContextと同じ構文を使用して設定できます。したがって、Kubernetes の SecurityContext および PodSecurityContext 構成の詳細については、公式ドキュメント [Configure a Security Context for a Pod or Container](https://kubernetes.io/docs/tasks/configure-pod-container/security-context/) を参照してください。 ```yaml ledger: @@ -214,7 +215,7 @@ ledger: privateKeySecret: "scalardl-ledger-tls-key" ``` -この場合、次のように山括弧内の内容を置き換えて、ScalarDL Ledger の秘密鍵と証明書ファイルを含む秘密リソースを作成する必要があります。 +この場合、次のように山括弧内の内容を置き換えて、ScalarDL Ledger の秘密鍵と証明書ファイルを含むシークレットリソースを作成する必要があります。 ```console kubectl create secret generic scalardl-ledger-tls-ca --from-file=ca.crt=/ -n @@ -222,16 +223,16 @@ kubectl create secret generic scalardl-ledger-tls-cert --from-file=tls.crt=/ -n ``` -秘密鍵と証明書ファイルを準備する方法の詳細については、[Scalar 製品の秘密鍵と証明書ファイルを作成する方法](../scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx) を参照してください。 +秘密鍵と証明書ファイルを準備する方法の詳細については、[Scalar 製品の秘密鍵と証明書ファイルを作成する方法](../scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx)を参照してください。 ##### cert-manager で信頼できる CA を使用して秘密鍵と証明書ファイルを管理する -次の構成を使用して、cert-manager で秘密キーと証明書を管理できます。 +次の構成を使用して、cert-manager で秘密鍵と証明書を管理できます。 :::note -* cert-manager を使用する場合は、cert-manager をデプロイし、`Issuers` リソースを準備する必要があります。詳細については、cert-manager のドキュメント、[インストール](https://cert-manager.io/docs/installation/) および [発行者構成](https://cert-manager.io/docs/configuration/) を参照してください。 -* デフォルトでは、Scalar Helm Chart は Scalar 製品の証明書要件を満たす `Certificate` リソースを作成します。デフォルトの証明書構成が推奨されますが、カスタム証明書構成を使用する場合は、Scalar 製品の証明書要件を満たす必要があります。詳細については、[Scalar 製品の秘密キーと証明書ファイルを作成する方法](../scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx#certificate-requirements) を参照してください。 +* cert-manager を使用する場合は、cert-manager をデプロイし、`Issuers` リソースを準備する必要があります。詳細については、cert-manager のドキュメント、[インストール](https://cert-manager.io/docs/installation/)および[発行者構成](https://cert-manager.io/docs/configuration/)を参照してください。 +* デフォルトでは、Scalar Helm Chart は Scalar 製品の証明書要件を満たす `Certificate` リソースを作成します。デフォルトの証明書構成が推奨されますが、カスタム証明書構成を使用する場合は、Scalar 製品の証明書要件を満たす必要があります。詳細については、[Scalar 製品の秘密鍵と証明書ファイルを作成する方法](../scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx#certificate-requirements)を参照してください。 ::: @@ -251,12 +252,12 @@ ledger: ##### cert-manager で自己署名 CA を使用して秘密鍵と証明書ファイルを管理する -次の構成を使用して、cert-manager で秘密キーと自己署名証明書を管理できます。 +次の構成を使用して、cert-manager で秘密鍵と自己署名証明書を管理できます。 :::note -* cert-manager を使用する場合は、cert-manager をデプロイする必要があります。詳細については、cert-manager のドキュメント [インストール](https://cert-manager.io/docs/installation/) を参照してください。 -* デフォルトでは、Scalar Helm Chart は Scalar 製品の証明書要件を満たす `Certificate` リソースを作成します。デフォルトの証明書構成が推奨されますが、カスタム証明書構成を使用する場合は、Scalar 製品の証明書要件を満たす必要があります。詳細については、[Scalar 製品の秘密キーと証明書ファイルを作成する方法](../scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx#certificate-requirements) を参照してください。 +* cert-manager を使用する場合は、cert-manager をデプロイする必要があります。詳細については、cert-manager のドキュメント[インストール](https://cert-manager.io/docs/installation/)を参照してください。 +* デフォルトでは、Scalar Helm Chart は Scalar 製品の証明書要件を満たす `Certificate` リソースを作成します。デフォルトの証明書構成が推奨されますが、カスタム証明書構成を使用する場合は、Scalar 製品の証明書要件を満たす必要があります。詳細については、[Scalar 製品の秘密鍵と証明書ファイルを作成する方法](../scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx#certificate-requirements)を参照してください。 ::: @@ -276,7 +277,7 @@ ledger: ##### TLS通信のカスタム権限を設定する -`ledger.tls.overrideAuthority` を使用して、TLS 通信のカスタム権限を設定できます。この値によって、実際に接続されているホストが変わることはありません。この値はテスト用ですが、DNS オーバーライドの代替としてテスト以外でも安全に使用できます。たとえば、`ledger.tls.certChainSecret` を使用して設定した証明書チェーン ファイルで提示されるホスト名を指定できます。このチャートでは、`startupProbe` と `livenessProbe` にこの値を使用しています。 +`ledger.tls.overrideAuthority` を使用して、TLS 通信のカスタム権限を設定できます。この値によって、実際に接続されているホストが変わることはありません。この値はテスト用ですが、DNS オーバーライドの代替としてテスト以外でも安全に使用できます。たとえば、`ledger.tls.certChainSecret` を使用して設定した証明書チェーンファイルで提示されるホスト名を指定できます。このチャートでは、`startupProbe` と `livenessProbe` にこの値を使用しています。 ```yaml ledger: @@ -308,7 +309,7 @@ ledger: Kubernetes のテイントと許容を使用してポッドのデプロイメントを制御したい場合は、`ledger.tolerations` を使用できます。 -Kubernetes の許容と同じ構文を使用して、テイントと許容を構成できます。 Kubernetes での許容設定の詳細については、Kubernetes の公式ドキュメント [Taints and Tolerations](https://kubernetes.io/docs/concepts/scheduling-eviction/taint-and-toleration/) を参照してください。 +Kubernetes の許容と同じ構文を使用して、テイントと許容を構成できます。Kubernetes での許容設定の詳細については、Kubernetes の公式ドキュメント [Taints and Tolerations](https://kubernetes.io/docs/concepts/scheduling-eviction/taint-and-toleration/) を参照してください。 ```yaml ledger: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-scalardl-schema-loader.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-scalardl-schema-loader.mdx index 262bcf93..9752c87e 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-scalardl-schema-loader.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/configure-custom-values-scalardl-schema-loader.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsJapanese --- # ScalarDL Schema Loader のカスタム値ファイルを構成する @@ -7,13 +8,13 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、ScalarDL Schema Loader チャートのカスタム値ファイルを作成する方法について説明します。 パラメータの詳細を知りたい場合は、ScalarDL Schema Loader チャートの [README](https://github.com/scalar-labs/helm-charts/blob/main/charts/schema-loading/README.md) を参照してください。 +このドキュメントでは、ScalarDL Schema Loader チャートのカスタム値ファイルを作成する方法について説明します。パラメータの詳細を知りたい場合は、ScalarDL Schema Loader チャートの [README](https://github.com/scalar-labs/helm-charts/blob/main/charts/schema-loading/README.md) を参照してください。 ## 必要な構成 ### データベース構成 -`schemaLoading.databaseProperties` を設定する必要があります。 バックエンド データベースにアクセスするには、`database.properties` をこのパラメータに設定してください。 ScalarDB のデータベース構成の詳細については、[Getting Started with ScalarDB](https://scalardb.scalar-labs.com/docs/latest/getting-started-with-scalardb) を参照してください。 +`schemaLoading.databaseProperties` を設定する必要があります。バックエンドデータベースにアクセスするには、`database.properties` をこのパラメータに設定してください。ScalarDB のデータベース構成の詳細については、[Getting Started with ScalarDB](https://scalardb.scalar-labs.com/docs/latest/getting-started-with-scalardb) を参照してください。 ```yaml schemaLoading: @@ -49,9 +50,9 @@ schemaLoading: 環境変数を使用して `schemaLoading.databaseProperties` 内の一部のプロパティ (資格情報など) を設定したい場合は、`schemaLoading.secretName` を使用して、いくつかの資格情報を含む Secret リソースを指定できます。 -たとえば、環境変数を使用してバックエンド データベースの資格情報 (`scalar.db.username` および `scalar.db.password`) を設定でき、これによりポッドの安全性が高まります。 +たとえば、環境変数を使用してバックエンドデータベースの資格情報 (`scalar.db.username` および `scalar.db.password`) を設定でき、これによりポッドの安全性が高まります。 -Secret リソースの使用方法の詳細については、ドキュメント [Secret リソースを使用して資格情報を環境変数としてプロパティ ファイルに渡す方法](use-secret-for-credentials.mdx) を参照してください。 +Secret リソースの使用方法の詳細については、ドキュメント [Secret リソースを使用して資格情報を環境変数としてプロパティファイルに渡す方法](use-secret-for-credentials.mdx)を参照してください。 ```yaml schemaLoading: @@ -60,7 +61,7 @@ schemaLoading: ### 画像構成 (デフォルト値を推奨) -イメージ リポジトリを変更する場合は、`schemaLoading.image.repository` を使用して、プルする ScalarDL Schema Loader コンテナ イメージのコンテナ リポジトリ情報を指定できます。 +イメージリポジトリを変更する場合は、`schemaLoading.image.repository` を使用して、プルする ScalarDL Schema Loader コンテナイメージのコンテナリポジトリ情報を指定できます。 ```yaml schemaLoading: @@ -70,7 +71,7 @@ schemaLoading: ### フラグ設定 (環境に応じてオプション) -複数のフラグを配列として指定できます。 フラグの詳細については、ドキュメント [ScalarDB Schema Loader](https://scalardb.scalar-labs.com/docs/latest/schema-loader) を参照してください。 +複数のフラグを配列として指定できます。フラグの詳細については、ドキュメント [ScalarDB Schema Loader](https://scalardb.scalar-labs.com/docs/latest/schema-loader) を参照してください。 ```yaml schemaLoading: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-logging.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-logging.mdx index 1d1733ab..2b25b193 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-logging.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-logging.mdx @@ -1,9 +1,10 @@ --- tags: - Community +displayed_sidebar: docsJapanese --- -# Helm Charts の入門 (Loki スタックを使用したロギング) +# Helm Charts をはじめよう (Loki スタックを使用したロギング) import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; @@ -11,7 +12,7 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; このドキュメントでは、Grafana Loki (Promtail を使用) を使用して、Kubernetes 上で Scalar 製品のログ集約を開始する方法について説明します。 -Scalar 製品の [モニタリングの開始](getting-started-monitoring.mdx) をすでに読み、kube-prometheus-stack をインストールしていることを前提としています。 +Scalar 製品の[モニタリングの開始](getting-started-monitoring.mdx)をすでに読み、kube-prometheus-stack をインストールしていることを前提としています。 ## 私たちが作るもの @@ -49,11 +50,11 @@ Scalar 製品の [モニタリングの開始](getting-started-monitoring.mdx) +---------+ ``` -## ステップ 1. カスタム値ファイルを準備する +## ステップ1. カスタム値ファイルを準備する -1. `loki-stack` helm chart のサンプル ファイル [scalar-loki-stack-custom-values.yaml](./conf/scalar-loki-stack-custom-values.yaml) を取得します。 +1. `loki-stack` helm chart のサンプルファイル [scalar-loki-stack-custom-values.yaml](./conf/scalar-loki-stack-custom-values.yaml) を取得します。 -## ステップ 2. `loki-stack` をデプロイする +## ステップ2. `loki-stack` をデプロイする 1. `grafana` helm リポジトリを追加します。 ```console @@ -65,9 +66,9 @@ Scalar 製品の [モニタリングの開始](getting-started-monitoring.mdx) helm install scalar-logging-loki grafana/loki-stack -n monitoring -f scalar-loki-stack-custom-values.yaml ``` -## ステップ 3. Grafana 構成に Loki データ ソースを追加する +## ステップ3. Grafana 構成に Loki データソースを追加する -1. Loki データ ソースの設定を `scalar-prometheus-custom-values.yaml` ファイルに追加します。 +1. Loki データソースの設定を `scalar-prometheus-custom-values.yaml` ファイルに追加します。 ```yaml grafana: additionalDataSources: @@ -85,14 +86,14 @@ Scalar 製品の [モニタリングの開始](getting-started-monitoring.mdx) helm upgrade scalar-monitoring prometheus-community/kube-prometheus-stack -n monitoring -f scalar-prometheus-custom-values.yaml ``` -## ステップ 4. Grafana ダッシュボードにアクセスする +## ステップ4. Grafana ダッシュボードにアクセスする 1. Loki をデータソースとして追加する - Grafana http://localhost:3000 に移動します (minikube を使用する場合) - `Explore` に移動して、追加された Loki を見つけます - 収集されたログは `Explore` ページで確認できます。 -## ステップ 5. `loki-stack` helm chartを削除する +## ステップ5. `loki-stack` helm chartを削除する 1. `loki-stack` をアンインストールします。 ```console diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-monitoring.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-monitoring.mdx index 099154d4..1010b668 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-monitoring.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-monitoring.mdx @@ -1,15 +1,16 @@ --- tags: - Community +displayed_sidebar: docsJapanese --- -# Helm Charts の入門 (Prometheus Operator を使用したモニタリング) +# Helm Charts をはじめよう (Prometheus Operator を使用したモニタリング) import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、Prometheus Operator (kube-prometheus-stack) を使用して Kubernetes 上で Scalar 製品の監視を開始する方法について説明します。 ここでは、テスト用の Mac または Linux 環境がすでにあることを前提としています。 このドキュメントでは **Minikube** を使用しますが、これから説明する手順はどの Kubernetes クラスターでも機能するはずです。 +このドキュメントでは、Prometheus Operator (kube-prometheus-stack) を使用して Kubernetes 上で Scalar 製品の監視を開始する方法について説明します。ここでは、テスト用の Mac または Linux 環境がすでにあることを前提としています。このドキュメントでは **Minikube** を使用しますが、これから説明する手順はどの Kubernetes クラスターでも機能するはずです。 ## 私たちが作るもの @@ -39,13 +40,13 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; +---------+ ``` -## ステップ 1. Kubernetes クラスターを開始する +## ステップ1. Kubernetes クラスターを開始する -まず、Kubernetes クラスターを準備する必要があります。 **minikube** 環境を使用する場合は、[Scalar Helm Charts の入門](getting-started-scalar-helm-charts.mdx) を参照してください。 すでに Kubernetes クラスターを開始している場合は、この手順をスキップできます。 +まず、Kubernetes クラスターを準備する必要があります。**minikube** 環境を使用する場合は、[Scalar Helm Charts をはじめよう](getting-started-scalar-helm-charts.mdx)を参照してください。すでに Kubernetes クラスターを開始している場合は、この手順をスキップできます。 -## ステップ 2. カスタム値ファイルを準備する +## ステップ2. カスタム値ファイルを準備する -1. `kube-prometheus-stack` のサンプル ファイル [scalar-prometheus-custom-values.yaml](./conf/scalar-prometheus-custom-values.yaml) を保存します。 +1. `kube-prometheus-stack` のサンプルファイル [scalar-prometheus-custom-values.yaml](./conf/scalar-prometheus-custom-values.yaml) を保存します。 1. 次のように `scalar-prometheus-custom-values.yaml` にカスタム値を追加します。 * 設定 @@ -81,7 +82,7 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; * Helm Chart を使用して Prometheus Operator デプロイメントをカスタマイズする場合は、Scalar 製品を監視するために次の構成を設定する必要があります。 * Prometheus Operator が Scalar 製品の `ServiceMonitor` および `PrometheusRule` を検出できるように、`serviceMonitorSelectorNilUsesHelmValues` および `ruleSelectorNilUsesHelmValues` を `false` (デフォルトでは `true`) に設定します。 - * Scalar Manager を使用する場合は、Scalar Manager が CPU およびメモリ リソースを収集できるように次の構成を設定する必要があります。 + * Scalar Manager を使用する場合は、Scalar Manager が CPU およびメモリリソースを収集できるように次の構成を設定する必要があります。 * `kubeStateMetrics.enabled`、`nodeExporter.enabled`、および `kubelet.enabled` を `true` に設定します。 * Scalar Manager を使用する場合は、Scalar Manager が Grafana を組み込みきるように次の構成を設定する必要があります。 @@ -89,7 +90,7 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; * `grafana.ini.auth.anonymous.org_name` を使用中の組織に設定します。Scalar のサンプルを使う場合では、`Main Org.` に設定します。 * `grafana.ini.auth.anonymous.org_role` を `Editor` に設定します。 -## ステップ 3. `kube-prometheus-stack` をデプロイする +## ステップ3. `kube-prometheus-stack` をデプロイする 1. `prometheus-community` helm リポジトリを追加します。 ```console @@ -106,10 +107,10 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; helm install scalar-monitoring prometheus-community/kube-prometheus-stack -n monitoring -f scalar-prometheus-custom-values.yaml ``` -## ステップ 4. Helm Chart を使用して Scalar 製品をデプロイ (またはアップグレード) +## ステップ4. Helm Chart を使用して Scalar 製品をデプロイ (またはアップグレード) * 注記: - * 最低限の手順を説明します。 ScalarDB および ScalarDL のデプロイメントについて詳しく知りたい場合は、以下のドキュメントを参照してください。 + * 最低限の手順を説明します。ScalarDB および ScalarDL のデプロイメントについて詳しく知りたい場合は、以下のドキュメントを参照してください。 * [Helm Charts 入門 (ScalarDB Server)](getting-started-scalardb.mdx) * [Helm Charts 入門 (ScalarDL Ledger / Ledger のみ)](getting-started-scalardl-ledger.mdx) * [Helm Charts 入門 (ScalarDL Ledger および Auditor / Auditor モード)](getting-started-scalardl-auditor.mdx) @@ -199,11 +200,11 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; helm upgrade scalardl-auditor scalar-labs/scalardl-audit -f ./scalardl-auditor-custom-values.yaml ``` -## ステップ 5. ダッシュボードにアクセスする +## ステップ5. ダッシュボードにアクセスする ### minikube を使用する場合 -1. 各サービス リソースを `localhost (127.0.0.1)` として公開するには、別のターミナルを開き、`minikube tunnel` コマンドを実行します。 +1. 各サービスリソースを `localhost (127.0.0.1)` として公開するには、別のターミナルを開き、`minikube tunnel` コマンドを実行します。 ```console minikube tunnel ``` @@ -246,13 +247,13 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; ### minikube 以外の Kubernetes を使用する場合 -minikube 以外の Kubernetes クラスターを使用する場合は、各 Kubernetes クラスターの方式に従って LoadBalancer サービスにアクセスする必要があります。 たとえば、クラウド サービスによって提供されるロード バランサーや `kubectl port-forward` コマンドを使用します。 +minikube 以外の Kubernetes クラスターを使用する場合は、各 Kubernetes クラスターの方式に従って LoadBalancer サービスにアクセスする必要があります。たとえば、クラウドサービスによって提供されるロードバランサーや `kubectl port-forward` コマンドを使用します。 -## ステップ 6. すべてのリソースを削除する +## ステップ6. すべてのリソースを削除する -Kubernetes クラスターでのモニタリング テストが完了したら、すべてのリソースを削除します。 +Kubernetes クラスターでのモニタリングテストが完了したら、すべてのリソースを削除します。 -1. `minikube tunnel` コマンドを終了します。 (minikubeを使用する場合) +1. `minikube tunnel` コマンドを終了します。(minikubeを使用する場合) ```console Ctrl + C ``` @@ -262,7 +263,7 @@ Kubernetes クラスターでのモニタリング テストが完了したら helm uninstall scalar-monitoring -n monitoring ``` -1. minikube を削除します。 (オプション / minikube を使用する場合) +1. minikube を削除します。(オプション / minikube を使用する場合) ```console minikube delete --all ``` diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalar-helm-charts.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalar-helm-charts.mdx index 11ca9c36..3d6e5ef6 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalar-helm-charts.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalar-helm-charts.mdx @@ -2,11 +2,12 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- -# Scalar Helm Charts の入門 +# Scalar Helm Charts をはじめよう -このドキュメントでは、Kubernetes クラスター上でテスト環境として Scalar Helm Chart を開始する方法について説明します。 ここでは、テスト用の Mac または Linux 環境がすでにあることを前提としています。 このドキュメントでは **Minikube** を使用しますが、これから説明する手順はどの Kubernetes クラスターでも機能するはずです。 +このドキュメントでは、Kubernetes クラスター上でテスト環境として Scalar Helm Chart を開始する方法について説明します。ここでは、テスト用の Mac または Linux 環境がすでにあることを前提としています。このドキュメントでは **Minikube** を使用しますが、これから説明する手順はどの Kubernetes クラスターでも機能するはずです。 ## ツール @@ -17,17 +18,17 @@ tags: 1. Helm 1. cfssl / cfssljson -## ステップ 1. ツールをインストールする +## ステップ1. ツールをインストールする まず、このガイドで使用する次のツールをインストールする必要があります。 -1. [minikubeドキュメント](https://minikube.sigs.k8s.io/docs/start/) に従って minikube をインストールします。 +1. [minikubeドキュメント](https://minikube.sigs.k8s.io/docs/start/)に従って minikube をインストールします。 -1. [Kubernetesドキュメント](https://kubernetes.io/docs/tasks/tools/install-kubectl-linux/) に従って kubectl をインストールします。 +1. [Kubernetesドキュメント](https://kubernetes.io/docs/tasks/tools/install-kubectl-linux/)に従って kubectl をインストールします。 -1. [Helmドキュメント](https://helm.sh/docs/intro/install/) に従って helm コマンドをインストールします。 +1. [Helmドキュメント](https://helm.sh/docs/intro/install/)に従って helm コマンドをインストールします。 -1. [CFSSLドキュメント](https://github.com/cloudflare/cfssl) に従って cfssl と cfssljson をインストールします。 +1. [CFSSLドキュメント](https://github.com/cloudflare/cfssl)に従って cfssl と cfssljson をインストールします。 :::note @@ -40,7 +41,7 @@ tags: ::: -## ステップ 2. docker ドライバーで minikube を起動する (オプション / minikube を使用する場合) +## ステップ2. docker ドライバーで minikube を起動する (オプション / minikube を使用する場合) 1. minikube を起動します。 ```console @@ -64,9 +65,9 @@ tags: ``` minikube が適切に起動すると、いくつかのポッドが kube-system 名前空間で**実行中**であることがわかります。 -## ステップ 3。 +## ステップ3。 -Kubernetes クラスターが起動したら、そのクラスター上で各 Scalar Helm Charts を試すことができます。 詳細については、以下のドキュメントを参照してください。 +Kubernetes クラスターが起動したら、そのクラスター上で各 Scalar Helm Charts を試すことができます。詳細については、以下のドキュメントを参照してください。 * [TLS を使用した ScalarDB Cluster](getting-started-scalardb-cluster-tls.mdx) * [cert-manager を使用した TLS 対応 ScalarDB Cluster](getting-started-scalardb-cluster-tls-cert-manager.mdx) diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalar-manager.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalar-manager.mdx index 8061a249..beba9546 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalar-manager.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalar-manager.mdx @@ -1,6 +1,7 @@ --- tags: - Enterprise Option +displayed_sidebar: docsJapanese --- # Scalar Manager をデプロイする @@ -69,7 +70,7 @@ Scalar Manager をデプロイする前に、次の操作を行う必要があ +---------+ +---------+ ``` -## ステップ 1. minikube を起動します +## ステップ1. minikube を起動します **Terminal** を開き、次のコマンドを実行して minikube を起動します。 @@ -77,7 +78,7 @@ Scalar Manager をデプロイする前に、次の操作を行う必要があ minikube start ``` -## ステップ 2. Grafana を埋め込めるように `kube-prometheus-stack` をアップグレードする +## ステップ2. Grafana を埋め込めるように `kube-prometheus-stack` をアップグレードする `kube-prometheus-stack` のカスタム値ファイル (たとえば `scalar-prometheus-custom-values.yaml`) に、次の構成を追加するか、すでに存在する場合は修正します。 @@ -109,7 +110,7 @@ grafana: helm upgrade scalar-monitoring prometheus-community/kube-prometheus-stack -n monitoring -f scalar-prometheus-custom-values.yaml ``` -## ステップ 3. 環境変数を設定する +## ステップ3. 環境変数を設定する 次のコマンドを実行し、山括弧内の内容を説明に従って置き換えて、Scalar Manager の環境変数を設定します。 @@ -120,14 +121,14 @@ SCALAR_MANAGER_CUSTOM_VALUES_FILE= SCALAR_MANAGER_CHART_VERSION= ``` -## ステップ 4. Scalar Manager のカスタム値ファイルを準備する +## ステップ4. Scalar Manager のカスタム値ファイルを準備する 次の手順に従って、Scalar Manager のカスタム値ファイルを準備します。 1. `scalar-manager-custom-values.yaml` という名前の空のファイルを作成します。 1. [Scalar Manager のカスタム値ファイルを構成する](configure-custom-values-scalar-manager.mdx)の手順に従います。 -## ステップ 5. `scalar-manager` をインストールしてデプロイする +## ステップ5. `scalar-manager` をインストールしてデプロイする 次のコマンドを実行して、`scalar-manager` Helm Chart をインストールしてデプロイします。 @@ -135,7 +136,7 @@ SCALAR_MANAGER_CHART_VERSION= helm install ${SCALAR_MANAGER_RELEASE_NAME} scalar-labs/scalar-manager -n ${SCALAR_MANAGER_NAMESPACE} -f ${SCALAR_MANAGER_CUSTOM_VALUES_FILE} --version ${SCALAR_MANAGER_CHART_VERSION} ``` -## ステップ 6. Scalar Manager にアクセスする +## ステップ6. Scalar Manager にアクセスする Scalar Manager にアクセスする方法は、Kubernetes クラスターに使用しているツールによって異なります。 @@ -182,7 +183,7 @@ helm uninstall ${SCALAR_MANAGER_RELEASE_NAME} -n ${SCALAR_MANAGER_NAMESPACE} ### オプションの Scalar Manager 構成 -Scalar Manager に設定できるオプションの構成については、[オプション設定](./configure-custom-values-scalar-manager.mdx#オプション設定) を参照してください。 +Scalar Manager に設定できるオプションの構成については、[オプション設定](./configure-custom-values-scalar-manager.mdx#オプション設定)を参照してください。 ### リソースの検出 @@ -201,7 +202,7 @@ Scalar Manager は、特定のラベルセレクターを使用して、クラ #### 依存関係 -Scalar Manager は、[kube-prometheus-stack](https://github.com/prometheus-community/helm-charts/tree/main/charts/kube-prometheus-stack) および [loki-stack](https://github.com/grafana/helm-charts/tree/main/charts/loki-stack) Helm Chart に設定されているデフォルトのラベルと値を検索します。Scalar Manager が依存関係を検出するために使用するデフォルトのラベルと値の詳細については、[`api.applicationProperties` で設定できるプロパティ](./configure-custom-values-scalar-manager.mdx#apiapplicationPropertiesで設定できるプロパティ) を参照してください。 +Scalar Manager は、[kube-prometheus-stack](https://github.com/prometheus-community/helm-charts/tree/main/charts/kube-prometheus-stack) および [loki-stack](https://github.com/grafana/helm-charts/tree/main/charts/loki-stack) Helm Chart に設定されているデフォルトのラベルと値を検索します。Scalar Manager が依存関係を検出するために使用するデフォルトのラベルと値の詳細については、[`api.applicationProperties` で設定できるプロパティ](./configure-custom-values-scalar-manager.mdx#apiapplicationProperties-で設定できるプロパティ)を参照してください。 また、`kube-prometheus-stack` または `loki-stack` のインストール時に値をカスタマイズした場合は、Scalar Manager のカスタム値 `api.applicationProperties` のラベルセレクターを更新する必要があります。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalardb-analytics-postgresql.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalardb-analytics-postgresql.mdx index 5ff293c6..57f8d795 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalardb-analytics-postgresql.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalardb-analytics-postgresql.mdx @@ -1,15 +1,16 @@ --- tags: - Community +displayed_sidebar: docsJapanese --- -# Helm Charts の入門 (ScalarDB Analytics with PostgreSQL) +# Helm Charts をはじめよう (ScalarDB Analytics with PostgreSQL) import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このガイドでは、Kubernetes クラスターの Helm Chart をテスト環境として使用して、ScalarDB Analytics with PostgreSQL を開始する方法について説明します。 さらに、このガイドの内容は、テスト用に Mac または Linux 環境がすでにセットアップされていることを前提としています。 **minikube** について言及していますが、説明されている手順はどの Kubernetes クラスターでも機能するはずです。 +このガイドでは、Kubernetes クラスターの Helm Chart をテスト環境として使用して、ScalarDB Analytics with PostgreSQL を開始する方法について説明します。さらに、このガイドの内容は、テスト用に Mac または Linux 環境がすでにセットアップされていることを前提としています。**minikube** について言及していますが、説明されている手順はどの Kubernetes クラスターでも機能するはずです。 ## あなたが作成するもの @@ -34,19 +35,19 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; | +------------------------------------+ | | | | | | +-------------+ | | -| | OLTP クライアント | ---(テスト OLTP ワークロードでサンプル データをロードする)-----------------------------------------------------------------------+ | +| | OLTP クライアント | ---(テスト OLTP ワークロードでサンプルデータをロードする)-----------------------------------------------------------------------+ | | +-------------+ | | | +-------------------------------------------------------------------------------------------------------------------------------------------+ ``` -## ステップ 1. Kubernetes クラスターを開始する +## ステップ1. Kubernetes クラスターを開始する -まず、Kubernetes クラスターを準備する必要があります。 **minikube** 環境を使用している場合は、[Scalar Helm Charts の入門](getting-started-scalar-helm-charts.mdx) を参照してください。 すでに Kubernetes クラスターを開始している場合は、この手順をスキップできます。 +まず、Kubernetes クラスターを準備する必要があります。**minikube** 環境を使用している場合は、[Scalar Helm Charts をはじめよう](getting-started-scalar-helm-charts.mdx)を参照してください。すでに Kubernetes クラスターを開始している場合は、この手順をスキップできます。 -## ステップ 2. MySQL および PostgreSQL ポッドを開始する +## ステップ2. MySQL および PostgreSQL ポッドを開始する -ScalarDB Analytics with PostgreSQL を含むScalarDBは、バックエンドデータベースとして数種類のデータベースシステムを利用できます。 このガイドでは、MySQL と PostgreSQL を使用します。 +ScalarDB Analytics with PostgreSQL を含むScalarDBは、バックエンドデータベースとして数種類のデータベースシステムを利用できます。このガイドでは、MySQL と PostgreSQL を使用します。 次のようにして、Kubernetes クラスターに MySQL と PostgreSQL をデプロイできます。 @@ -98,7 +99,7 @@ ScalarDB Analytics with PostgreSQL を含むScalarDBは、バックエンドデ postgresql-scalardb-0 1/1 Running 0 3m12s ``` -## ステップ 3. 作業ディレクトリを作成する +## ステップ3. 作業ディレクトリを作成する いくつかの構成ファイルをローカルに作成するので、それらのファイル用の作業ディレクトリを作成します。 @@ -106,13 +107,13 @@ ScalarDB Analytics with PostgreSQL を含むScalarDBは、バックエンドデ mkdir -p ~/scalardb-analytics-postgresql-test/ ``` -## ステップ 4. ScalarDB、ScalarDB Analytics with PostgreSQL、およびチャートのバージョンを設定します +## ステップ4. ScalarDB、ScalarDB Analytics with PostgreSQL、およびチャートのバージョンを設定します -以下の 3 つの環境変数を設定します。 別のバージョンの ScalarDB および ScalarDB Analytics with PostgreSQL を使用する場合は、必ず使用するバージョンに設定してください。 +以下の3つの環境変数を設定します。別のバージョンの ScalarDB および ScalarDB Analytics with PostgreSQL を使用する場合は、必ず使用するバージョンに設定してください。 :::note -ScalarDB Analytics with PostgreSQL のマイナー バージョン (例: 3.10.x) を ScalarDB と同じにする必要がありますが、パッチのバージョンを一致させる必要はありません。 たとえば、ScalarDB 3.10.1 と ScalarDB Analytics with PostgreSQL 3.10.3 を併用できます。 +ScalarDB Analytics with PostgreSQL のマイナーバージョン (例: 3.10.x) を ScalarDB と同じにする必要がありますが、パッチのバージョンを一致させる必要はありません。たとえば、ScalarDB 3.10.1と ScalarDB Analytics with PostgreSQL 3.10.3を併用できます。 ::: @@ -128,17 +129,17 @@ SCALARDB_ANALYTICS_WITH_POSTGRESQL_VERSION=3.10.3 CHART_VERSION=$(helm search repo scalar-labs/scalardb-analytics-postgresql -l | grep -e ${SCALARDB_ANALYTICS_WITH_POSTGRESQL_VERSION} | awk '{print $2}' | sort --version-sort -r | head -n 1) ``` -## ステップ 5. OLTP トランザクションを実行して、サンプル データを MySQL および PostgreSQL にロードします +## ステップ5. OLTP トランザクションを実行して、サンプルデータを MySQL および PostgreSQL にロードします ScalarDB Analytics with PostgreSQL を導入する前に、OLTPトランザクションを実行してサンプルデータを作成します。 -1. Kubernetes クラスターで OLTP クライアント ポッドを開始します。 +1. Kubernetes クラスターで OLTP クライアントポッドを開始します。 ```console kubectl run oltp-client --image eclipse-temurin:8-jdk-jammy --env SCALARDB_VERSION=${SCALARDB_VERSION} -- sleep inf ``` -1. OLTP クライアント ポッドが実行されているかどうかを確認します。 +1. OLTP クライアントポッドが実行されているかどうかを確認します。 ```console kubectl get pod oltp-client @@ -157,21 +158,21 @@ ScalarDB Analytics with PostgreSQL を導入する前に、OLTPトランザク oltp-client 1/1 Running 0 17s ``` -1. OLTP クライアント ポッドで bash を実行します。 +1. OLTP クライアントポッドで bash を実行します。 ```console kubectl exec -it oltp-client -- bash ``` - この手順の後、OLTP クライアント ポッドで各コマンドを実行します。 + この手順の後、OLTP クライアントポッドで各コマンドを実行します。 -1. git および curl コマンドを OLTP クライアント ポッドにインストールします。 +1. git および curl コマンドを OLTP クライアントポッドにインストールします。 ```console apt update && apt install -y curl git ``` -1. ScalarDB サンプル リポジトリのクローンを作成します。 +1. ScalarDB サンプルリポジトリのクローンを作成します。 ```console git clone https://github.com/scalar-labs/scalardb-samples.git @@ -200,19 +201,19 @@ ScalarDB Analytics with PostgreSQL を導入する前に、OLTPトランザク cat << 'EOF' > database.properties scalar.db.storage=multi-storage scalar.db.multi_storage.storages=storage0,storage1 - + # Storage 0 scalar.db.multi_storage.storages.storage0.storage=jdbc scalar.db.multi_storage.storages.storage0.contact_points=jdbc:mysql://mysql-scalardb.default.svc.cluster.local:3306/ scalar.db.multi_storage.storages.storage0.username=root scalar.db.multi_storage.storages.storage0.password=mysql - + # Storage 1 scalar.db.multi_storage.storages.storage1.storage=jdbc scalar.db.multi_storage.storages.storage1.contact_points=jdbc:postgresql://postgresql-scalardb.default.svc.cluster.local:5432/postgres scalar.db.multi_storage.storages.storage1.username=postgres scalar.db.multi_storage.storages.storage1.password=postgres - + scalar.db.multi_storage.namespace_mapping=customer:storage0,order:storage1 scalar.db.multi_storage.default_storage=storage1 EOF @@ -224,19 +225,19 @@ ScalarDB Analytics with PostgreSQL を導入する前に、OLTPトランザク curl -OL https://github.com/scalar-labs/scalardb/releases/download/v${SCALARDB_VERSION}/scalardb-schema-loader-${SCALARDB_VERSION}.jar ``` -1. Schema Loader を実行してサンプル テーブルを作成します。 +1. Schema Loader を実行してサンプルテーブルを作成します。 ```console java -jar scalardb-schema-loader-${SCALARDB_VERSION}.jar --config database.properties --schema-file schema.json --coordinator ``` -1. サンプル ワークロードの初期データをロードします。 +1. サンプルワークロードの初期データをロードします。 ```console ./gradlew run --args="LoadInitialData" ``` -1. OLTP トランザクションのサンプル ワークロードを実行します。 これらのコマンドを実行すると、サンプル データとしていくつかの `order` エントリが作成されます。 +1. OLTP トランザクションのサンプルワークロードを実行します。これらのコマンドを実行すると、サンプルデータとしていくつかの `order` エントリが作成されます。 ```console ./gradlew run --args="PlaceOrder 1 1:3,2:2" @@ -277,7 +278,7 @@ ScalarDB Analytics with PostgreSQL を導入する前に、OLTPトランザク exit ``` -## ステップ 6. ScalarDB Analytics with PostgreSQL のデプロイ +## ステップ6. ScalarDB Analytics with PostgreSQL のデプロイ バックエンドデータベースにScalarDB経由でサンプルデータを作成した後、ScalarDB Analytics with PostgreSQL をデプロイします。 @@ -289,19 +290,19 @@ ScalarDB Analytics with PostgreSQL を導入する前に、OLTPトランザク databaseProperties: | scalar.db.storage=multi-storage scalar.db.multi_storage.storages=storage0,storage1 - + # Storage 0 scalar.db.multi_storage.storages.storage0.storage=jdbc scalar.db.multi_storage.storages.storage0.contact_points=jdbc:mysql://mysql-scalardb.default.svc.cluster.local:3306/ scalar.db.multi_storage.storages.storage0.username=root scalar.db.multi_storage.storages.storage0.password=mysql - + # Storage 1 scalar.db.multi_storage.storages.storage1.storage=jdbc scalar.db.multi_storage.storages.storage1.contact_points=jdbc:postgresql://postgresql-scalardb.default.svc.cluster.local:5432/postgres scalar.db.multi_storage.storages.storage1.username=postgres scalar.db.multi_storage.storages.storage1.password=postgres - + scalar.db.multi_storage.namespace_mapping=customer:storage0,order:storage1 scalar.db.multi_storage.default_storage=storage1 schemaImporter: @@ -311,7 +312,7 @@ ScalarDB Analytics with PostgreSQL を導入する前に、OLTPトランザク EOF ``` -1. PostgreSQL のスーパーユーザー パスワードを設定するためのシークレット リソースを作成します。 +1. PostgreSQL のスーパーユーザーパスワードを設定するためのシークレットリソースを作成します。 ```console kubectl create secret generic scalardb-analytics-postgresql-superuser-password --from-literal=superuser-password=scalardb-analytics @@ -323,17 +324,17 @@ ScalarDB Analytics with PostgreSQL を導入する前に、OLTPトランザク helm install scalardb-analytics-postgresql scalar-labs/scalardb-analytics-postgresql -n default -f ~/scalardb-analytics-postgresql-test/scalardb-analytics-postgresql-custom-values.yaml --version ${CHART_VERSION} ``` -## ステップ 7. OLAP クライアント ポッドを実行する +## ステップ7. OLAP クライアントポッドを実行する -ScalarDB Analytics with PostgreSQL を介して一部のクエリを実行するには、OLAP クライアント ポッドを実行します。 +ScalarDB Analytics with PostgreSQL を介して一部のクエリを実行するには、OLAP クライアントポッドを実行します。 -1. Kubernetes クラスターで OLAP クライアント ポッドを開始します。 +1. Kubernetes クラスターで OLAP クライアントポッドを開始します。 ```console kubectl run olap-client --image postgres:latest -- sleep inf ``` -1. OLAP クライアント ポッドが実行されているかどうかを確認します。 +1. OLAP クライアントポッドが実行されているかどうかを確認します。 ```console kubectl get pod olap-client @@ -352,17 +353,17 @@ ScalarDB Analytics with PostgreSQL を介して一部のクエリを実行する olap-client 1/1 Running 0 10s ``` -## ステップ 8. ScalarDB Analytics with PostgreSQL を介してサンプル クエリを実行する +## ステップ8. ScalarDB Analytics with PostgreSQL を介してサンプルクエリを実行する -OLAP クライアント ポッドを実行した後、ScalarDB Analytics with PostgreSQL を介していくつかのクエリを実行できます。 +OLAP クライアントポッドを実行した後、ScalarDB Analytics with PostgreSQL を介していくつかのクエリを実行できます。 -1. OLAP クライアント ポッドで bash を実行します。 +1. OLAP クライアントポッドで bash を実行します。 ```console kubectl exec -it olap-client -- bash ``` - この手順の後、OLAP クライアント ポッドで各コマンドを実行します。 + この手順の後、OLAP クライアントポッドで各コマンドを実行します。 1. psqlコマンドを実行して ScalarDB Analytics with PostgreSQL にアクセスします。 @@ -372,7 +373,7 @@ OLAP クライアント ポッドを実行した後、ScalarDB Analytics with Po パスワードは `scalardb-analytics` です。 -1. `customer.customers` テーブルのサンプル データを読み取ります。 +1. `customer.customers` テーブルのサンプルデータを読み取ります。 ```sql SELECT * FROM customer.customers; @@ -389,7 +390,7 @@ OLAP クライアント ポッドを実行した後、ScalarDB Analytics with Po (3 rows) ``` -1. `order.orders` テーブルのサンプル データを読み取ります。 +1. `order.orders` テーブルのサンプルデータを読み取ります。 ```sql SELECT * FROM "order".orders; @@ -412,7 +413,7 @@ OLAP クライアント ポッドを実行した後、ScalarDB Analytics with Po (8 rows) ``` -1. `order.statements` テーブルのサンプル データを読み取ります。 +1. `order.statements` テーブルのサンプルデータを読み取ります。 ```sql SELECT * FROM "order".statements; @@ -437,7 +438,7 @@ OLAP クライアント ポッドを実行した後、ScalarDB Analytics with Po (10 rows) ``` -1. `order.items` テーブルのサンプル データを読み取ります。 +1. `order.items` テーブルのサンプルデータを読み取ります。 ```sql SELECT * FROM "order".items; @@ -457,7 +458,7 @@ OLAP クライアント ポッドを実行した後、ScalarDB Analytics with Po (5 rows) ``` -1. `JOIN` クエリを実行します。 例えば以下のように各ユーザーのクレジット残高情報を確認できます。 +1. `JOIN` クエリを実行します。例えば以下のように各ユーザーのクレジット残高情報を確認できます。 ```sql SELECT * FROM ( @@ -493,13 +494,13 @@ OLAP クライアント ポッドを実行した後、ScalarDB Analytics with Po \q ``` -1. OLAP クライアント ポッドを終了します。 +1. OLAP クライアントポッドを終了します。 ```console exit ``` -## ステップ 9. すべてのリソースを削除する +## ステップ9. すべてのリソースを削除する Kubernetes クラスターで ScalarDB Analytics with PostgreSQL テストを完了したら、すべてのリソースを削除します。 @@ -509,19 +510,19 @@ Kubernetes クラスターで ScalarDB Analytics with PostgreSQL テストを完 helm uninstall mysql-scalardb postgresql-scalardb scalardb-analytics-postgresql ``` -1. クライアント ポッドを削除します。 +1. クライアントポッドを削除します。 ```console kubectl delete pod oltp-client olap-client --grace-period 0 ``` -1. 秘密リソースを削除します。 +1. シークレットリソースを削除します。 ```console kubectl delete secrets scalardb-analytics-postgresql-superuser-password ``` -1. 作業ディレクトリとサンプル ファイルを削除します。 +1. 作業ディレクトリとサンプルファイルを削除します。 ```console cd ~ diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalardb-cluster-tls-cert-manager.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalardb-cluster-tls-cert-manager.mdx index 808ea744..988ef514 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalardb-cluster-tls-cert-manager.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalardb-cluster-tls-cert-manager.mdx @@ -2,16 +2,17 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- -# Helm チャート入門 (cert-manager を使用した TLS 対応 ScalarDB Cluster) +# Helm Chart をはじめよう (cert-manager を使用した TLS 対応 ScalarDB Cluster) このチュートリアルでは、テスト環境の Kubernetes クラスターで Helm Charts と cert-manager を使用して、TLS 構成の ScalarDB Cluster を開始する方法について説明します。開始する前に、テスト用の Mac または Linux 環境がすでに用意されている必要があります。また、このチュートリアルでは **minikube** の使用について説明していますが、説明されている手順はどの Kubernetes クラスターでも機能するはずです。 ## 要件 -* ScalarDB Cluster のライセンスキー (試用ライセンスまたは商用ライセンス) が必要です。ライセンスキーをお持ちでない場合は、[お問い合わせ](https://www.scalar-labs.com/contact) ください。 -* TLS をサポートする ScalarDB Cluster 3.12 以降を使用する必要があります。 +* ScalarDB Cluster のライセンスキー (試用ライセンスまたは商用ライセンス) が必要です。ライセンスキーをお持ちでない場合は、[お問い合わせ](https://www.scalar-labs.com/contact)ください。 +* TLS をサポートする ScalarDB Cluster 3.12以降を使用する必要があります。 ## 作成するもの @@ -59,7 +60,7 @@ cert-manager は、TLS 接続用に次の秘密鍵と証明書ファイルを自 +----------------------+ ``` -Scalar Helm Charts は、Envoy および ScalarDB Cluster の各秘密キーと証明書ファイルを次のように自動的にマウントし、各接続で TLS を有効にします。ルート CA 証明書ファイルはクライアントに手動でマウントします。 +Scalar Helm Charts は、Envoy および ScalarDB Cluster の各秘密鍵と証明書ファイルを次のように自動的にマウントし、各接続で TLS を有効にします。ルート CA 証明書ファイルはクライアントに手動でマウントします。 ``` +-------------------------------------+ +------------------------------------------------+ +--------------------------------+ @@ -79,7 +80,7 @@ ScalarDB Cluster 関連コンポーネント間には、次の接続が存在し ## ステップ1. Kubernetesクラスターを起動してツールをインストールする -Kubernetes クラスターを準備し、いくつかのツール (`kubectl`、`helm`、`cfssl`、および `cfssljson`) をインストールする必要があります。インストール方法の詳細については、[Scalar Helm Charts の使用開始](getting-started-scalar-helm-charts.mdx) を参照してください。 +Kubernetes クラスターを準備し、いくつかのツール (`kubectl`、`helm`、`cfssl`、および `cfssljson`) をインストールする必要があります。インストール方法の詳細については、[Scalar Helm Charts の使用開始](getting-started-scalar-helm-charts.mdx)を参照してください。 ## ステップ2. PostgreSQLコンテナを起動する @@ -222,7 +223,7 @@ ScalarDB Cluster では、バックエンドデータベースとして何らか self-signed-issuer True 6s ``` -## ステップ 5. Helm Charts を使用して Kubernetes クラスターに ScalarDB Cluster をデプロイする +## ステップ5. Helm Charts を使用して Kubernetes クラスターに ScalarDB Cluster をデプロイする 1. Scalar Helm Charts リポジトリを追加します。 @@ -230,7 +231,7 @@ ScalarDB Cluster では、バックエンドデータベースとして何らか helm repo add scalar-labs https://scalar-labs.github.io/helm-charts ``` -1. ライセンス キーと証明書を環境変数として設定します。ライセンスキーがない場合は、[お問い合わせ](https://www.scalar-labs.com/contact) ください。`` の値の詳細については、[製品ライセンスキーを構成する方法](https://scalardb.scalar-labs.com/docs/latest/scalar-licensing/) を参照してください。 +1. ライセンスキーと証明書を環境変数として設定します。ライセンスキーがない場合は、[お問い合わせ](https://www.scalar-labs.com/contact)ください。`` の値の詳細については、[製品ライセンスキーを構成する方法](https://scalardb.scalar-labs.com/docs/latest/scalar-licensing/)を参照してください。 ```console SCALAR_DB_CLUSTER_LICENSE_KEY='' @@ -350,7 +351,7 @@ ScalarDB Cluster では、バックエンドデータベースとして何らか scalardb-cluster-node-7c6959c79d-4z54q 1/1 Running 0 18s scalardb-cluster-node-7c6959c79d-vcv96 1/1 Running 0 18s ``` - + ScalarDB Cluster ポッドが適切にデプロイされている場合、それらのポッドの `STATUS` 列には `Running` と表示されます。 1. ScalarDB Cluster サービスがデプロイされているかどうかを確認します。 @@ -451,7 +452,7 @@ CA 証明書ファイルはクライアントコンテナーで使用します ```console kubectl exec -it scalardb-cluster-client -n default -- bash ``` - + 次の手順のコマンドは、クライアントコンテナーで実行する必要があります。 1. [リリース](https://github.com/scalar-labs/scalardb/releases)から ScalarDB Cluster SQL CLI をダウンロードします。 @@ -492,7 +493,7 @@ CA 証明書ファイルはクライアントコンテナーで使用します CREATE NAMESPACE ns; ``` -1. 名前空間 `ns` の下に `tbl` という名前のサンプル テーブルを作成します。 +1. 名前空間 `ns` の下に `tbl` という名前のサンプルテーブルを作成します。 ```sql CREATE TABLE ns.tbl (a INT, b INT, c INT, PRIMARY KEY(a, b)); @@ -590,6 +591,6 @@ Kubernetes クラスターで ScalarDB Cluster テストを完了したら、す Scalar 製品の監視またはログ記録を開始する方法については、次のチュートリアルを参照してください。 -* [Helm チャートの使用開始 (Prometheus Operator を使用したモニタリング)](getting-started-monitoring.mdx) -* [Helm チャートの使用開始 (Loki Stack を使用したログ記録)](getting-started-logging.mdx) -* [Helm チャートの使用開始 (Scalar Manager)](getting-started-scalar-manager.mdx) +* [Helm Charts をはじめよう (Prometheus Operator を使用したモニタリング)](getting-started-monitoring.mdx) +* [Helm Charts をはじめよう (Loki Stack を使用したログ記録)](getting-started-logging.mdx) +* [Helm Charts をはじめよう (Scalar Manager)](getting-started-scalar-manager.mdx) diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalardb-cluster-tls.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalardb-cluster-tls.mdx index 64c29fa9..52e928be 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalardb-cluster-tls.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalardb-cluster-tls.mdx @@ -2,15 +2,16 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- -# Helm チャートの入門 (TLS を使用した ScalarDB Cluster) +# Helm Charts をはじめよう (TLS を使用した ScalarDB Cluster) -このドキュメントでは、Kubernetes クラスター上の Helm Chart をテスト環境として使用して、TLS 構成で ScalarDB クラスターを開始する方法について説明します。 ここでは、テスト用の Mac または Linux 環境がすでにあることを前提としています。 このドキュメントでは **minikube** を使用しますが、これから説明する手順はどの Kubernetes クラスターでも機能するはずです。 +このドキュメントでは、Kubernetes クラスター上の Helm Chart をテスト環境として使用して、TLS 構成で ScalarDB Cluster を開始する方法について説明します。ここでは、テスト用の Mac または Linux 環境がすでにあることを前提としています。このドキュメントでは **minikube** を使用しますが、これから説明する手順はどの Kubernetes クラスターでも機能するはずです。 ## 要件 -* ScalarDB Cluster のライセンスキー(トライアルライセンスまたは商用ライセンス)を取得する必要があります。 ライセンスキーをお持ちでない場合は、[お問い合わせ](https://www.scalar-labs.com/contact) してください。 +* ScalarDB Cluster のライセンスキー (トライアルライセンスまたは商用ライセンス) を取得する必要があります。ライセンスキーをお持ちでない場合は、[お問い合わせ](https://www.scalar-labs.com/contact)してください。 * TLSをサポートするScalarDB Cluster v3.12以降を使用する必要があります。 ## 作成するもの @@ -37,7 +38,7 @@ tags: +----------------------------------------------------------------------------------------------------------------------------------------------------+ ``` -TLS 接続用に次の秘密キーファイルと証明書ファイルを作成します。 +TLS 接続用に次の秘密鍵ファイルと証明書ファイルを作成します。 ``` +-------------------------------+ @@ -55,7 +56,7 @@ TLS 接続用に次の秘密キーファイルと証明書ファイルを作成 +-------------------------------+ ``` -各接続で TLS を有効にするために、各秘密キーと証明書ファイルを次のように設定します。 +各接続で TLS を有効にするために、各秘密鍵と証明書ファイルを次のように設定します。 ``` +--------------------------------+ +-----------------------------------------+ +-----------------------------------------+ @@ -71,15 +72,15 @@ ScalarDB Cluster 関連コンポーネント間には、次の接続がありま * **`クライアント - ScalarDB Cluster の Envoy`:** 一部のCRUD APIやSQL APIを実行すると、クライアントはEnvoy for ScalarDB Clusterにアクセスします。 * **`ScalarDB Cluster の Envoy - ScalarDB Cluster`:** Envoy は、ScalarDB Cluster の前の L7 (gRPC) ロードバランサーとして機能します。 -* **`ScalarDB Cluster ノード - ScalarDB Cluster ノード`:** ScalarDB Cluster ノードから別の ScalarDB Cluster ノードにアクセスします。 言い換えれば、すべての ScalarDB Cluster ノード間でクラスターの内部通信が行われます。 +* **`ScalarDB Cluster ノード - ScalarDB Cluster ノード`:** ScalarDB Cluster ノードから別の ScalarDB Cluster ノードにアクセスします。言い換えれば、すべての ScalarDB Cluster ノード間でクラスターの内部通信が行われます。 -## ステップ 1. Kubernetes クラスターを開始する +## ステップ1. Kubernetes クラスターを開始する -Kubernetes クラスターを準備し、いくつかのツール (`kubectl`、`helm`、`cfssl`、および `cfssljson`) をインストールする必要があります。 インストール方法の詳細については、[Scalar Helm Charts の開始](getting-started-scalar-helm-charts.mdx) を参照してください。 +Kubernetes クラスターを準備し、いくつかのツール (`kubectl`、`helm`、`cfssl`、および `cfssljson`) をインストールする必要があります。インストール方法の詳細については、[Scalar Helm Charts をはじめよう](getting-started-scalar-helm-charts.mdx)を参照してください。 -## ステップ 2. PostgreSQL コンテナーを開始する +## ステップ2. PostgreSQL コンテナーを開始する -ScalarDB Cluster は、バックエンドデータベースとして何らかのデータベースシステムを使用する必要があります。 このチュートリアルでは、PostgreSQL を使用します。 +ScalarDB Cluster は、バックエンドデータベースとして何らかのデータベースシステムを使用する必要があります。このチュートリアルでは、PostgreSQL を使用します。 次のようにして、Kubernetes クラスターに PostgreSQL をデプロイできます。 @@ -89,7 +90,7 @@ ScalarDB Cluster は、バックエンドデータベースとして何らかの helm repo add bitnami https://charts.bitnami.com/bitnami ``` -1. ScalarDB クラスター用の PostgreSQL をデプロイします。 +1. ScalarDB Cluster 用の PostgreSQL をデプロイします。 ```console helm install postgresql-scalardb-cluster bitnami/postgresql \ @@ -111,9 +112,9 @@ ScalarDB Cluster は、バックエンドデータベースとして何らかの postgresql-scalardb-cluster-0 1/1 Running 0 34s ``` -## ステップ 3. 作業ディレクトリを作成する +## ステップ3. 作業ディレクトリを作成する -いくつかの構成ファイルと秘密キーおよび証明書ファイルをローカルに作成します。 したがって、それらの作業ディレクトリを作成します。 +いくつかの構成ファイルと秘密鍵および証明書ファイルをローカルに作成します。したがって、それらの作業ディレクトリを作成します。 1. 作業ディレクトリを作成します。 @@ -121,9 +122,9 @@ ScalarDB Cluster は、バックエンドデータベースとして何らかの mkdir -p ${HOME}/scalardb-cluster-test/certs/ ``` -## ステップ 4. 秘密キーおよび証明書ファイルを作成する +## ステップ4. 秘密鍵および証明書ファイルを作成する -秘密キーと証明書ファイルを作成します。 +秘密鍵と証明書ファイルを作成します。 1. 作業ディレクトリを `${HOME}/scalardb-cluster-test/certs/` ディレクトリに変更します。 @@ -153,7 +154,7 @@ ScalarDB Cluster は、バックエンドデータベースとして何らかの EOF ``` -1. CA の鍵/証明書ファイルを作成します。 +1. CA の秘密鍵/証明書ファイルを作成します。 ```console cfssl gencert -initca ca.json | cfssljson -bare ca @@ -235,19 +236,19 @@ ScalarDB Cluster は、バックエンドデータベースとして何らかの EOF ``` -1. Envoy の秘密キーおよび証明書ファイルを作成します。 +1. Envoy の秘密鍵および証明書ファイルを作成します。 ```console cfssl gencert -ca ca.pem -ca-key ca-key.pem -config ca-config.json -profile scalar-test-ca envoy.json | cfssljson -bare envoy ``` -1. ScalarDB Cluster の秘密キーおよび証明書ファイルを作成します。 +1. ScalarDB Cluster の秘密鍵および証明書ファイルを作成します。 ```console cfssl gencert -ca ca.pem -ca-key ca-key.pem -config ca-config.json -profile scalar-test-ca scalardb-cluster.json | cfssljson -bare scalardb-cluster ``` -1. 秘密キーおよび証明書ファイルが作成されたことを確認します。 +1. 秘密鍵および証明書ファイルが作成されたことを確認します。 ```console ls -1 @@ -271,7 +272,7 @@ ScalarDB Cluster は、バックエンドデータベースとして何らかの scalardb-cluster.pem ``` -## ステップ 5. Helm チャートを使用して Kubernetes クラスターに ScalarDB Cluster をデプロイする +## ステップ5. Helm Charts を使用して Kubernetes クラスターに ScalarDB Cluster をデプロイする 1. Scalar helm リポジトリを追加します。 @@ -343,14 +344,14 @@ ScalarDB Cluster は、バックエンドデータベースとして何らかの EOF ``` -1. ライセンスキーと証明書を環境変数に設定します。 ライセンスキーをお持ちでない場合は、[お問い合わせ](https://www.scalar-labs.com/contact) してください。 +1. ライセンスキーと証明書を環境変数に設定します。ライセンスキーをお持ちでない場合は、[お問い合わせ](https://www.scalar-labs.com/contact)してください。 ```console SCALAR_DB_CLUSTER_LICENSE_KEY= SCALAR_DB_CLUSTER_LICENSE_CHECK_CERT_PEM= ``` -1. 資格情報とライセンスキーを含むシークレット リソース「scalardb-credentials-secret」を作成します。 +1. 資格情報とライセンスキーを含むシークレットリソース「scalardb-credentials-secret」を作成します。 ```console kubectl create secret generic scalardb-credentials-secret \ @@ -361,14 +362,14 @@ ScalarDB Cluster は、バックエンドデータベースとして何らかの -n default ``` -1. Envoy の秘密キーファイルと証明書ファイルを含むシークレットリソースを作成します。 +1. Envoy の秘密鍵ファイルと証明書ファイルを含むシークレットリソースを作成します。 ```console kubectl create secret generic envoy-tls-cert --from-file=tls.crt=${HOME}/scalardb-cluster-test/certs/envoy.pem -n default kubectl create secret generic envoy-tls-key --from-file=tls.key=${HOME}/scalardb-cluster-test/certs/envoy-key.pem -n default ``` -1. ScalarDB Cluster の秘密キー、証明書、CA 証明書ファイルを含むシークレットリソースを作成します。 +1. ScalarDB Cluster の秘密鍵、証明書、CA 証明書ファイルを含むシークレットリソースを作成します。 ```console kubectl create secret generic scalardb-cluster-tls-ca --from-file=ca.crt=${HOME}/scalardb-cluster-test/certs/ca.pem -n default @@ -427,7 +428,7 @@ ScalarDB Cluster は、バックエンドデータベースとして何らかの scalardb-cluster-headless ClusterIP None 60053/TCP 40s scalardb-cluster-metrics ClusterIP 10.96.199.135 9080/TCP 40s ``` - ScalarDB クラスター サービスが適切にデプロイされている場合は、CLUSTER-IP 列にプライベート IP アドレスが表示されます。 + ScalarDB Cluster サービスが適切にデプロイされている場合は、CLUSTER-IP 列にプライベート IP アドレスが表示されます。 :::note @@ -435,9 +436,9 @@ ScalarDB Cluster は、バックエンドデータベースとして何らかの ::: -## ステップ 6. クライアントコンテナを開始する +## ステップ6. クライアントコンテナを開始する -クライアントコンテナでCAの証明書ファイルを使用します。 そこで、シークレットリソースを作成し、クライアントコンテナにマウントします。 +クライアントコンテナでCAの証明書ファイルを使用します。そこで、シークレットリソースを作成し、クライアントコンテナにマウントします。 1. シークレットリソース `client-ca-cert` を作成します。 @@ -475,7 +476,7 @@ ScalarDB Cluster は、バックエンドデータベースとして何らかの EOF ``` -1. マニフェスト ファイルで ScalarDB Cluster のバージョンを設定します。 +1. マニフェストファイルで ScalarDB Cluster のバージョンを設定します。 ```console sed -i s/SCALAR_DB_CLUSTER_CLIENT_POD_SCALAR_DB_CLUSTER_VERSION/${SCALAR_DB_CLUSTER_VERSION}/ ${HOME}/scalardb-cluster-test/scalardb-cluster-client-pod.yaml @@ -500,17 +501,17 @@ ScalarDB Cluster は、バックエンドデータベースとして何らかの scalardb-cluster-client 1/1 Running 0 26s ``` -## ステップ 7. ScalarDB Cluster SQL CLI をダウンロードしてクライアント コンテナにコピーします +## ステップ7. ScalarDB Cluster SQL CLI をダウンロードしてクライアントコンテナにコピーします -1. ScalarDB Cluster SQL CLI を [リリース](https://github.com/scalar-labs/scalardb/releases) からディレクトリ `${HOME}/scalardb-cluster-test/` の下にダウンロードします。 +1. ScalarDB Cluster SQL CLI を [リリース](https://github.com/scalar-labs/scalardb/releases)からディレクトリ `${HOME}/scalardb-cluster-test/` の下にダウンロードします。 -1. ScalarDB Cluster SQL CLI をクライアント コンテナにコピーします。 +1. ScalarDB Cluster SQL CLI をクライアントコンテナにコピーします。 ```console kubectl cp ${HOME}/scalardb-cluster-test/scalardb-cluster-sql-cli-${SCALAR_DB_CLUSTER_VERSION}-all.jar scalardb-cluster-client:/ ``` -## ステップ 8. クライアントコンテナで ScalarDB Cluster SQL CLI を実行する +## ステップ8. クライアントコンテナで ScalarDB Cluster SQL CLI を実行する 1. クライアントコンテナで bash を実行します。 @@ -551,7 +552,7 @@ ScalarDB Cluster は、バックエンドデータベースとして何らかの CREATE NAMESPACE ns; ``` -1. 名前空間 `ns` の下にサンプル テーブル `tbl` を作成します。 +1. 名前空間 `ns` の下にサンプルテーブル `tbl` を作成します。 ```sql CREATE TABLE ns.tbl (a INT, b INT, c INT, PRIMARY KEY(a, b)); @@ -563,7 +564,7 @@ ScalarDB Cluster は、バックエンドデータベースとして何らかの INSERT INTO ns.tbl VALUES (1,2,3), (4,5,6), (7,8,9); ``` -1. 挿入したサンプル レコードを選択します。 +1. 挿入したサンプルレコードを選択します。 ```sql SELECT * FROM ns.tbl; @@ -583,7 +584,7 @@ ScalarDB Cluster は、バックエンドデータベースとして何らかの 3 rows selected (0.059 seconds) ``` -## ステップ 9. すべてのリソースを削除する +## ステップ9. すべてのリソースを削除する Kubernetes クラスターで ScalarDB Cluster のテストが完了したら、すべてのリソースを削除します。 @@ -605,7 +606,7 @@ Kubernetes クラスターで ScalarDB Cluster のテストが完了したら、 kubectl delete secrets scalardb-credentials-secret scalardb-cluster-tls-key scalardb-cluster-tls-cert scalardb-cluster-tls-ca envoy-tls-key envoy-tls-cert client-ca-cert ``` -1. 作業ディレクトリとサンプル ファイル (構成ファイル、秘密キー、および証明書) を削除します。 +1. 作業ディレクトリとサンプルファイル (構成ファイル、秘密鍵、および証明書) を削除します。 ```console cd ${HOME} @@ -619,6 +620,6 @@ Kubernetes クラスターで ScalarDB Cluster のテストが完了したら、 Scalar 製品の監視またはログ記録を開始する方法については、次のドキュメントで説明しています。 -* [Helm Charts の入門 (Prometheus Operator を使用したモニタリング)](getting-started-monitoring.mdx) -* [Helm Charts の入門 (Loki スタックを使用したロギング)](getting-started-logging.mdx) -* [Helm Charts の入門 (Scalar Manager)](getting-started-scalar-manager.mdx) +* [Helm Charts をはじめよう (Prometheus Operator を使用したモニタリング)](getting-started-monitoring.mdx) +* [Helm Charts をはじめよう (Loki スタックを使用したロギング)](getting-started-logging.mdx) +* [Helm Charts をはじめよう (Scalar Manager)](getting-started-scalar-manager.mdx) diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalardb.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalardb.mdx index 3170287a..3c6ba2c4 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalardb.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalardb.mdx @@ -3,9 +3,10 @@ tags: - Enterprise Standard - Enterprise Premium - Deprecated +displayed_sidebar: docsJapanese --- -# [非推奨] Helm Charts の入門 (ScalarDB Server) +# [非推奨] Helm Charts をはじめよう (ScalarDB Server) import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; @@ -13,15 +14,15 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; :::note -ScalarDB Server は非推奨になりました。 代わりに [ScalarDB Cluster](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/setup-scalardb-cluster-on-kubernetes-by-using-helm-chart) を使用してください。 +ScalarDB Server は非推奨になりました。代わりに [ScalarDB Cluster](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/setup-scalardb-cluster-on-kubernetes-by-using-helm-chart) を使用してください。 ::: -このドキュメントでは、Kubernetes クラスター上の Helm Chart をテスト環境として使用して、ScalarDB Server を開始する方法について説明します。 ここでは、テスト用の Mac または Linux 環境がすでにあることを前提としています。 このドキュメントでは **Minikube** を使用しますが、これから説明する手順はどの Kubernetes クラスターでも機能するはずです。 +このドキュメントでは、Kubernetes クラスター上の Helm Chart をテスト環境として使用して、ScalarDB Server を開始する方法について説明します。ここでは、テスト用の Mac または Linux 環境がすでにあることを前提としています。このドキュメントでは **Minikube** を使用しますが、これから説明する手順はどの Kubernetes クラスターでも機能するはずです。 ## 要件 -※コンテナイメージ(`scalardb-server` および `scalardb-envoy`)を取得するには、[AWS Marketplace](https://aws.amazon.com/marketplace/pp/prodview-rzbuhxgvqf4d2) または[Azure Marketplace](https://azuremarketplace.microsoft.com/en/marketplace/apps/scalarinc.scalardb) で ScalarDB を購読する必要があります。 詳細については、以下のドキュメントを参照してください。 +※コンテナイメージ (`scalardb-server` および `scalardb-envoy`) を取得するには、[AWS Marketplace](https://aws.amazon.com/marketplace/pp/prodview-rzbuhxgvqf4d2) または [Azure Marketplace](https://azuremarketplace.microsoft.com/en/marketplace/apps/scalarinc.scalardb) で ScalarDB を購読する必要があります。詳細については、以下のドキュメントを参照してください。 * [How to install Scalar products through AWS Marketplace](../scalar-kubernetes/AwsMarketplaceGuide.mdx) * [How to install Scalar products through Azure Marketplace](../scalar-kubernetes/AzureMarketplaceGuide.mdx) @@ -50,13 +51,13 @@ ScalarDB Server は非推奨になりました。 代わりに [ScalarDB Cluster +--------------------------------------------------------------------------------------------------------------------------------------+ ``` -## ステップ 1. Kubernetes クラスターを開始する +## ステップ1. Kubernetes クラスターを開始する -まず、Kubernetes クラスターを準備する必要があります。 **minikube** 環境を使用する場合は、[Scalar Helm Charts の入門](getting-started-scalar-helm-charts.mdx) を参照してください。 すでに Kubernetes クラスターを開始している場合は、この手順をスキップできます。 +まず、Kubernetes クラスターを準備する必要があります。**minikube** 環境を使用する場合は、[Scalar Helm Charts をはじめよう](getting-started-scalar-helm-charts.mdx)を参照してください。すでに Kubernetes クラスターを開始している場合は、この手順をスキップできます。 -## ステップ 2. PostgreSQL コンテナーを開始する +## ステップ2. PostgreSQL コンテナーを開始する -ScalarDB は、バックエンド データベースとして何らかのデータベース システムを使用します。 このドキュメントでは PostgreSQL を使用します。 +ScalarDB は、バックエンドデータベースとして何らかのデータベースシステムを使用します。このドキュメントでは PostgreSQL を使用します。 次のようにして、Kubernetes クラスターに PostgreSQL をデプロイできます。 @@ -82,14 +83,14 @@ ScalarDB は、バックエンド データベースとして何らかのデー postgresql-scalardb-0 1/1 Running 0 2m42s ``` -## ステップ 3. Helm Charts を使用して Kubernetes クラスターに ScalarDB Server をデプロイする +## ステップ3. Helm Charts を使用して Kubernetes クラスターに ScalarDB Server をデプロイする 1. Scalar helm リポジトリを追加します。 ```console helm repo add scalar-labs https://scalar-labs.github.io/helm-charts ``` -1. AWS/Azure Marketplace から ScalarDB コンテナー イメージをプルするためのシークレット リソースを作成します。 +1. AWS/Azure Marketplace から ScalarDB コンテナーイメージをプルするためのシークレットリソースを作成します。 * AWS Marketplace ```console kubectl create secret docker-registry reg-ecr-mp-secrets \ @@ -106,7 +107,7 @@ ScalarDB は、バックエンド データベースとして何らかのデー ``` 詳細については、以下のドキュメントを参照してください。 - + * [How to install Scalar products through AWS Marketplace](../scalar-kubernetes/AwsMarketplaceGuide.mdx) * [How to install Scalar products through Azure Marketplace](../scalar-kubernetes/AzureMarketplaceGuide.mdx) @@ -121,7 +122,7 @@ ScalarDB は、バックエンド データベースとして何らかのデー version: "1.3.0" imagePullSecrets: - name: "reg-ecr-mp-secrets" - + scalardb: image: repository: "709825985650.dkr.ecr.us-east-1.amazonaws.com/scalar/scalardb-server" @@ -138,7 +139,7 @@ ScalarDB は、バックエンド データベースとして何らかのデー ``` * Azure Marketplace - + ```console cat << 'EOF' > scalardb-custom-values.yaml envoy: @@ -147,7 +148,7 @@ ScalarDB は、バックエンド データベースとして何らかのデー version: "1.3.0" imagePullSecrets: - name: "reg-acr-secrets" - + scalardb: image: repository: "/scalarinc/scalardb-server" @@ -207,11 +208,11 @@ ScalarDB は、バックエンド データベースとして何らかのデー scalardb-headless ClusterIP None 60051/TCP 41s scalardb-metrics ClusterIP 10.108.188.10 8080/TCP 41s ``` - ScalarDB Server サービスが適切にデプロイされている場合は、CLUSTER-IP 列にプライベート IP アドレスが表示されます。 (注記: `scalardb-headless` には CLUSTER-IP がありません。) + ScalarDB Server サービスが適切にデプロイされている場合は、CLUSTER-IP 列にプライベート IP アドレスが表示されます。(注記: `scalardb-headless` には CLUSTER-IP がありません。) -## ステップ 4. クライアントコンテナを開始する +## ステップ4. クライアントコンテナを開始する -1. Kubernetes クラスター上でクライアント コンテナーを起動します。 +1. Kubernetes クラスター上でクライアントコンテナーを起動します。 ```console kubectl run scalardb-client --image eclipse-temurin:8-jdk --command sleep inf ``` @@ -226,17 +227,17 @@ ScalarDB は、バックエンド データベースとして何らかのデー scalardb-client 1/1 Running 0 23s ``` -## ステップ 5. クライアント コンテナで ScalarDB サンプル アプリケーションを実行する +## ステップ5. クライアントコンテナで ScalarDB サンプルアプリケーションを実行する -以下に最低限の手順を説明します。 ScalarDB についてさらに詳しく知りたい場合は、[Getting Started with ScalarDB](https://scalardb.scalar-labs.com/docs/latest/getting-started-with-scalardb) を参照してください。 +以下に最低限の手順を説明します。ScalarDB についてさらに詳しく知りたい場合は、[Getting Started with ScalarDB](https://scalardb.scalar-labs.com/docs/latest/getting-started-with-scalardb) を参照してください。 1. クライアントコンテナで bash を実行します。 ```console kubectl exec -it scalardb-client -- bash ``` - この手順の後、クライアント コンテナで各コマンドを実行します。 + この手順の後、クライアントコンテナで各コマンドを実行します。 -1. git およびcurl コマンドをクライアント コンテナにインストールします。 +1. git およびcurl コマンドをクライアントコンテナにインストールします。 ```console apt update && apt install -y git curl ``` @@ -266,13 +267,13 @@ ScalarDB は、バックエンド データベースとして何らかのデー git branch ``` 【コマンド実行結果】 - + ```console master * v3.7.0 ``` - 別のバージョンを使用する場合は、使用するバージョン(タグ)を指定してください。 + 別のバージョンを使用する場合は、使用するバージョン (タグ) を指定してください。 1. ディレクトリを `docs/getting-started/` に変更します。 ```console @@ -302,7 +303,7 @@ ScalarDB は、バックエンド データベースとして何らかのデー EOF ``` -1. サンプル アプリケーションの DB スキーマを定義する JSON ファイル (emoney-transaction.json) を作成します。 +1. サンプルアプリケーションの DB スキーマを定義する JSON ファイル (emoney-transaction.json) を作成します。 ```console cat << 'EOF' > emoney-transaction.json { @@ -326,7 +327,7 @@ ScalarDB は、バックエンド データベースとして何らかのデー java -jar ./scalardb-schema-loader-3.7.0.jar --config ./scalardb.properties -f emoney-transaction.json --coordinator ``` -1. サンプル アプリケーションを実行します。 +1. サンプルアプリケーションを実行します。 * `1000` を `user1` に請求します。 ```console ./gradlew run --args="-action charge -amount 1000 -to user1" @@ -348,7 +349,7 @@ ScalarDB は、バックエンド データベースとして何らかのデー ./gradlew run --args="-action getBalance -id merchant1" ``` -1. (オプション) 次のコマンドを使用して、サンプル アプリケーションを通じて挿入および変更された (INSERT/UPDATE) データを確認できます。 (このコマンドは、クライアント コンテナではなくローカルホストで実行する必要があります。) +1. (オプション) 次のコマンドを使用して、サンプルアプリケーションを通じて挿入および変更された (INSERT/UPDATE) データを確認できます。(このコマンドは、クライアントコンテナではなくローカルホストで実行する必要があります。) ```console kubectl exec -it postgresql-scalardb-0 -- bash -c 'export PGPASSWORD=postgres && psql -U postgres -d postgres -c "SELECT * FROM emoney.account"' ``` @@ -361,9 +362,9 @@ ScalarDB は、バックエンド データベースとして何らかのデー (2 rows) ``` * 注記: - * 通常はScalarDB経由でデータ(レコード)にアクセスする必要があります。 上記のコマンドはサンプルアプリケーションの動作を説明、確認するために使用します。 + * 通常はScalarDB経由でデータ (レコード) にアクセスする必要があります。上記のコマンドはサンプルアプリケーションの動作を説明、確認するために使用します。 -## ステップ 6. すべてのリソースを削除する +## ステップ6. すべてのリソースを削除する Kubernetes クラスター上で ScalarDB Server テストが完了したら、すべてのリソースを削除します。 @@ -381,6 +382,6 @@ Kubernetes クラスター上で ScalarDB Server テストが完了したら、 Scalar 製品の監視またはログ記録を開始する方法については、次のドキュメントで説明しています。 -* [Helm Charts の入門 (Prometheus Operator を使用したモニタリング)](getting-started-monitoring.mdx) -* [Helm Charts の入門 (Loki スタックを使用したロギング)](getting-started-logging.mdx) -* [Helm Charts の入門 (Scalar Manager)](getting-started-scalar-manager.mdx) +* [Helm Charts をはじめよう (Prometheus Operator を使用したモニタリング)](getting-started-monitoring.mdx) +* [Helm Charts をはじめよう (Loki スタックを使用したロギング)](getting-started-logging.mdx) +* [Helm Charts をはじめよう (Scalar Manager)](getting-started-scalar-manager.mdx) diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalardl-auditor-tls-cert-manager.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalardl-auditor-tls-cert-manager.mdx index 107eaed5..e79d1fe6 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalardl-auditor-tls-cert-manager.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalardl-auditor-tls-cert-manager.mdx @@ -1,14 +1,15 @@ --- +displayed_sidebar: docsJapanese --- -# Helm チャートを使い始める (cert-manager / Auditor モードを使用した TLS 対応の ScalarDL Ledger および Auditor) +# Helm Charts をはじめよう (cert-manager / Auditor モードを使用した TLS 対応の ScalarDL Ledger および Auditor) このチュートリアルでは、Kubernetes クラスターでテスト環境として Helm Charts と cert-manager を使用して、TLS 構成で ScalarDL Ledger と ScalarDL Auditor を使い始める方法について説明します。開始する前に、テスト用の Mac または Linux 環境を用意しておく必要があります。また、このチュートリアルでは **minikube** の使用について説明していますが、説明されている手順はどの Kubernetes クラスターでも機能するはずです。 ## 要件 -* ScalarDL のライセンスキー (試用ライセンスまたは商用ライセンス) が必要です。ライセンスキーをお持ちでない場合は、[お問い合わせ](https://www.scalar-labs.com/contact) ください。 -* TLS をサポートする ScalarDL 3.9 以降を使用する必要があります。 +* ScalarDL のライセンスキー (試用ライセンスまたは商用ライセンス) が必要です。ライセンスキーをお持ちでない場合は、[お問い合わせ](https://www.scalar-labs.com/contact)ください。 +* TLS をサポートする ScalarDL 3.9以降を使用する必要があります。 :::note @@ -81,7 +82,7 @@ cert-manager は、TLS 接続用に次の秘密鍵と証明書ファイルを自 +----------------------+ ``` -Scalar Helm Charts は、各接続で TLS を有効にするために、Envoy と ScalarDL の各秘密キーと証明書ファイルを次のように自動的にマウントします。ルート CA 証明書ファイルはクライアントに手動でマウントします。 +Scalar Helm Charts は、各接続で TLS を有効にするために、Envoy と ScalarDL の各秘密鍵と証明書ファイルを次のように自動的にマウントします。ルート CA 証明書ファイルはクライアントに手動でマウントします。 ``` +------------------------------------------------+ +--------------------------------------+ @@ -110,17 +111,17 @@ ScalarDL 関連コンポーネント間には、次の接続が存在します: * **`クライアント - ScalarDL Ledger 用 Envoy`:** ScalarDL API 関数を実行すると、クライアントは ScalarDL Ledger 用 Envoy にアクセスします。 * **`クライアント - ScalarDL Auditor 用 Envoy`:** ScalarDL API 関数を実行すると、クライアントは ScalarDL Auditor 用 Envoy にアクセスします。 -* **`ScalarDL Ledger 用 Envoy - ScalarDL Ledger`:** Envoy は ScalarDL Ledger の前で L7 (gRPC) ロード バランサーとして機能します。 -* **`ScalarDL Auditor 用 Envoy - ScalarDL Auditor`:** Envoy は ScalarDL Auditor の前で L7 (gRPC) ロード バランサーとして機能します。 +* **`ScalarDL Ledger 用 Envoy - ScalarDL Ledger`:** Envoy は ScalarDL Ledger の前で L7 (gRPC) ロードバランサーとして機能します。 +* **`ScalarDL Auditor 用 Envoy - ScalarDL Auditor`:** Envoy は ScalarDL Auditor の前で L7 (gRPC) ロードバランサーとして機能します。 * **`ScalarDL Auditor - Envoy for ScalarDL Ledger (ScalarDL Ledger)`:** ScalarDL がデータの一貫性を保つために回復プロセスを実行する必要がある場合、ScalarDL Auditor は Envoy を介して ScalarDL Ledger に対してリクエストを実行します。 -## ステップ 1. Kubernetes クラスターを起動してツールをインストールする +## ステップ1. Kubernetes クラスターを起動してツールをインストールする -Kubernetes クラスターを準備し、いくつかのツール (`kubectl`、`helm`、`cfssl`、および `cfssljson`) をインストールする必要があります。インストール方法の詳細については、[Scalar Helm Charts の使用開始](getting-started-scalar-helm-charts.mdx) を参照してください。 +Kubernetes クラスターを準備し、いくつかのツール (`kubectl`、`helm`、`cfssl`、および `cfssljson`) をインストールする必要があります。インストール方法の詳細については、[Scalar Helm Charts の使用開始](getting-started-scalar-helm-charts.mdx)を参照してください。 -## ステップ 2. PostgreSQL コンテナを起動する +## ステップ2. PostgreSQL コンテナを起動する -ScalarDL Ledger と ScalarDL Auditor は、バックエンド データベースとして何らかのデータベース システムを使用する必要があります。このチュートリアルでは、PostgreSQL を使用します。 +ScalarDL Ledger と ScalarDL Auditor は、バックエンドデータベースとして何らかのデータベースシステムを使用する必要があります。このチュートリアルでは、PostgreSQL を使用します。 次のようにして、Kubernetes クラスターに PostgreSQL をデプロイできます。 @@ -162,7 +163,7 @@ ScalarDL Ledger と ScalarDL Auditor は、バックエンド データベース postgresql-ledger-0 1/1 Running 0 16s ``` -## ステップ 3. 作業ディレクトリを作成する +## ステップ3. 作業ディレクトリを作成する ローカルにいくつかの構成ファイルと秘密鍵および証明書ファイルを作成します。必ずそれらのファイル用の作業ディレクトリを作成してください。 @@ -172,7 +173,7 @@ ScalarDL Ledger と ScalarDL Auditor は、バックエンド データベース mkdir -p ${HOME}/scalardl-test/ ``` -## ステップ 4. cert-manager と発行者リソースをデプロイする +## ステップ4. cert-manager と発行者リソースをデプロイする このチュートリアルでは、cert-manager を使用して秘密鍵と証明書を発行および管理します。次のようにして、Kubernetes クラスターに cert-manager をデプロイできます。 @@ -269,9 +270,9 @@ ScalarDL Ledger と ScalarDL Auditor は、バックエンド データベース self-signed-issuer True 6s ``` -## ステップ 5. Helm Charts を使用して ScalarDL Ledger と ScalarDL Auditor のデータベーススキーマを作成する +## ステップ5. Helm Charts を使用して ScalarDL Ledger と ScalarDL Auditor のデータベーススキーマを作成する -Helm Charts を使用して、Kubernetes クラスターに 2 つの ScalarDL Schema Loader ポッドをデプロイします。ScalarDL Schema Loader は、PostgreSQL に ScalarDL Ledger と Auditor のデータベーススキーマを作成します。 +Helm Charts を使用して、Kubernetes クラスターに2つの ScalarDL Schema Loader ポッドをデプロイします。ScalarDL Schema Loader は、PostgreSQL に ScalarDL Ledger と Auditor のデータベーススキーマを作成します。 1. Scalar Helm Charts リポジトリを追加します。 @@ -327,26 +328,26 @@ Helm Charts を使用して、Kubernetes クラスターに 2 つの ScalarDL Sc -n default ``` -1. ScalarDL スキーマローダーのチャートバージョンを設定します。 +1. ScalarDL Schema Loader のチャートバージョンを設定します。 ```console SCALAR_DL_VERSION=3.9.1 SCALAR_DL_SCHEMA_LOADER_CHART_VERSION=$(helm search repo scalar-labs/schema-loading -l | grep -F "${SCALAR_DL_VERSION}" | awk '{print $2}' | sort --version-sort -r | head -n 1) ``` -1. ScalarDL Ledger 用の ScalarDL スキーマローダーをデプロイします。 +1. ScalarDL Ledger 用の ScalarDL Schema Loader をデプロイします。 ```console helm install schema-loader-ledger scalar-labs/schema-loading -f ${HOME}/scalardl-test/schema-loader-ledger-custom-values.yaml --version ${SCALAR_DL_SCHEMA_LOADER_CHART_VERSION} -n default ``` -1. ScalarDL Auditor 用の ScalarDL スキーマローダーをデプロイします。 +1. ScalarDL Auditor 用の ScalarDL Schema Loader をデプロイします。 ```console helm install schema-loader-auditor scalar-labs/schema-loading -f ${HOME}/scalardl-test/schema-loader-auditor-custom-values.yaml --version ${SCALAR_DL_SCHEMA_LOADER_CHART_VERSION} -n default ``` -1. ScalarDL スキーマローダーポッドが「完了」ステータスでデプロイされているかどうかを確認します。 +1. ScalarDL Schema Loader ポッドが「完了」ステータスでデプロイされているかどうかを確認します。 ```console kubectl get pod -n default @@ -361,12 +362,12 @@ Helm Charts を使用して、Kubernetes クラスターに 2 つの ScalarDL Sc schema-loader-auditor-schema-loading-dvc5r 0/1 Completed 0 6s schema-loader-ledger-schema-loading-mtllb 0/1 Completed 0 10s ``` - - ScalarDL スキーマローダーポッドのステータスが **ContainerCreating** または **Running** の場合、それらのポッドの `STATUS` 列に `Completed` と表示されるまで待ちます。 -## ステップ 6. Helm Charts を使用して、Kubernetes クラスターに ScalarDL Ledger と ScalarDL Auditor をデプロイします + ScalarDL Schema Loader ポッドのステータスが **ContainerCreating** または **Running** の場合、それらのポッドの `STATUS` 列に `Completed` と表示されるまで待ちます。 -1. ライセンスキーと証明書を環境変数として設定します。ライセンスキーがない場合は、[お問い合わせ](https://www.scalar-labs.com/contact) ください。`` と `` の値の詳細については、[製品ライセンス キーを構成する方法](https://scalardl.scalar-labs.com/docs/latest/scalar-licensing/) を参照してください。 +## ステップ6. Helm Charts を使用して、Kubernetes クラスターに ScalarDL Ledger と ScalarDL Auditor をデプロイします + +1. ライセンスキーと証明書を環境変数として設定します。ライセンスキーがない場合は、[お問い合わせ](https://www.scalar-labs.com/contact)ください。`` と `` の値の詳細については、[製品ライセンスキーを構成する方法](https://scalardl.scalar-labs.com/docs/latest/scalar-licensing/)を参照してください。 ```console SCALAR_DL_LEDGER_LICENSE_KEY='' @@ -537,9 +538,9 @@ Helm Charts を使用して、Kubernetes クラスターに 2 つの ScalarDL Sc -n default ``` - 注意: 認証方法として `hmac` を使用する場合は、Helm Chart 側で `digital-signature` を無効にするためにダミーの秘密 `auditor-key` を作成する必要があります。 + 注意: 認証方法として `hmac` を使用する場合は、Helm Chart 側で `digital-signature` を無効にするためにダミーのシークレット `auditor-key` を作成する必要があります。 -1. ScalarDL Ledger と ScalarDL Auditor のチャート バージョンを設定します。 +1. ScalarDL Ledger と ScalarDL Auditor のチャートバージョンを設定します。 ```console SCALAR_DL_LEDGER_CHART_VERSION=$(helm search repo scalar-labs/scalardl -l | grep -v -e "scalar-labs/scalardl-audit" | grep -F "${SCALAR_DL_VERSION}" | awk '{print $2}' | sort --version-sort -r | head -n 1) @@ -614,14 +615,14 @@ Helm Charts を使用して、Kubernetes クラスターに 2 つの ScalarDL Sc ``` ScalarDL Ledger および ScalarDL Auditor サービスが適切にデプロイされている場合は、`CLUSTER-IP` 列にプライベート IP アドレスが表示されます。 - + :::note `scalardl-ledger-headless`、`scalardl-auditor-headless`、`postgresql-ledger-hl`、および `postgresql-auditor-hl` の `CLUSTER-IP` 値は、IP アドレスがないため `None` になります。 ::: -## ステップ 7. クライアントコンテナを起動する +## ステップ7. クライアントコンテナを起動する クライアントコンテナで CA 証明書ファイルを使用します。そのため、シークレットリソースを作成し、クライアントコンテナにマウントする必要があります。 @@ -631,7 +632,7 @@ Helm Charts を使用して、Kubernetes クラスターに 2 つの ScalarDL Sc kubectl create secret generic client-ca-cert --from-file=ca.crt=<(kubectl get secret self-signed-ca-cert-secret -o "jsonpath={.data['ca\.crt']}" | base64 -d) -n default ``` -1. クライアント ポッドのマニフェスト ファイル (`scalardl-client-pod.yaml`) を作成します。 +1. クライアントポッドのマニフェストファイル (`scalardl-client-pod.yaml`) を作成します。 ```console cat << 'EOF' > ${HOME}/scalardl-test/scalardl-client-pod.yaml @@ -685,7 +686,7 @@ Helm Charts を使用して、Kubernetes クラスターに 2 つの ScalarDL Sc scalardl-client 1/1 Running 0 4s ``` -## ステップ 8. クライアントコンテナで ScalarDL サンプルコントラクトを実行する +## ステップ8. クライアントコンテナで ScalarDL サンプルコントラクトを実行する 以下では、サンプルコントラクトを実行するために必要な最小限の手順について説明します。ScalarDL Ledger と ScalarDL Auditor の詳細については、以下を参照してください。 @@ -697,7 +698,7 @@ Helm Charts を使用して、Kubernetes クラスターに 2 つの ScalarDL Sc ```console kubectl exec -it scalardl-client -n default -- bash ``` - + 次の手順のコマンドは、クライアントコンテナーで実行する必要があります。 1. クライアントコンテナーに git、curl、unzip コマンドをインストールします。 @@ -805,8 +806,8 @@ Helm Charts を使用して、Kubernetes クラスターに 2 つの ScalarDL Sc ```console ./scalardl-java-client-sdk-${SCALAR_DL_VERSION}/bin/scalardl execute-contract --config ./client.properties --contract-id StateUpdater --contract-argument '{"asset_id": "test_asset", "state": 3}' ``` - - このサンプル契約は、`test_asset` という名前の資産の `state` (値) を `3` に更新します。 + + このサンプルコントラクトは、`test_asset` という名前のアセットの `state` (値) を `3` に更新します。 1. コントラクト `StateReader` を実行します。 @@ -829,10 +830,10 @@ Helm Charts を使用して、Kubernetes クラスターに 2 つの ScalarDL Sc ### 参照 - * 資産データが改ざんされていない場合、契約実行を要求する `execute-contract` コマンドを実行すると、結果として `OK` が返されます。 - * アセットデータが改ざんされている場合(たとえば、データベースの `state` 値が改ざんされている場合)、コントラクト実行を要求する `execute-contract` コマンドを実行すると、結果として `OK` 以外の値(たとえば、`INCONSISTENT_STATES`)が返されます。ScalarDL がデータ改ざんを検出する方法の例については、以下を参照してください。 + * 資産データが改ざんされていない場合、コントラクト実行を要求する `execute-contract` コマンドを実行すると、結果として `OK` が返されます。 + * アセットデータが改ざんされている場合 (たとえば、データベースの `state` 値が改ざんされている場合) 、コントラクト実行を要求する `execute-contract` コマンドを実行すると、結果として `OK` 以外の値 (たとえば、`INCONSISTENT_STATES`) が返されます。ScalarDL がデータ改ざんを検出する方法の例については、以下を参照してください。 - [コマンド実行結果(資産データが改ざんされた場合)] + [コマンド実行結果 (資産データが改ざんされた場合) ] ```console { @@ -874,7 +875,7 @@ Helm Charts を使用して、Kubernetes クラスターに 2 つの ScalarDL Sc * 資産データが改ざんされていない場合、検証を要求する `validate-ledger` コマンドを実行すると、結果として `OK` が返されます。 * 資産データが改ざんされている場合 (たとえば、データベースの `state` 値が改ざんされている場合)、検証を要求する `validate-ledger` コマンドを実行すると、結果として `OK` 以外の値 (たとえば、`INVALID_OUTPUT`) が返されます。ScalarDL がデータ改ざんを検出する方法の例については、以下を参照してください。 - [コマンド実行結果(資産データが改ざんされた場合)] + [コマンド実行結果 (資産データが改ざんされた場合) ] ```console { @@ -943,6 +944,6 @@ Kubernetes クラスターで ScalarDL Ledger および ScalarDL Auditor テス Scalar 製品の監視またはログ記録を開始する方法については、次のチュートリアルを参照してください。 -* [Helm チャートの使用開始 (Prometheus Operator を使用したモニタリング)](getting-started-monitoring.mdx) -* [Helm チャートの使用開始 (Loki Stack を使用したログ記録)](getting-started-logging.mdx) -* [Helm チャートの使用開始 (Scalar Manager)](getting-started-scalar-manager.mdx) +* [Helm Charts をはじめよう (Prometheus Operator を使用したモニタリング)](getting-started-monitoring.mdx) +* [Helm Charts をはじめよう (Loki Stack を使用したログ記録)](getting-started-logging.mdx) +* [Helm Charts をはじめよう (Scalar Manager)](getting-started-scalar-manager.mdx) diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalardl-auditor-tls.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalardl-auditor-tls.mdx index 06474348..1cd44721 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalardl-auditor-tls.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalardl-auditor-tls.mdx @@ -1,18 +1,19 @@ --- +displayed_sidebar: docsJapanese --- -# Helm チャートの入門 (TLS を使用した ScalarDL Ledger および Auditor / Auditor モード) +# Helm Chart をはじめよう (TLS を使用した ScalarDL Ledger および Auditor / Auditor モード) -このドキュメントでは、Kubernetes クラスター上の Helm Chart をテスト環境として使用して、TLS 構成で ScalarDL Ledger および ScalarDL Auditor を開始する方法について説明します。 ここでは、テスト用の Mac または Linux 環境がすでにあることを前提としています。 このドキュメントでは **minikube** を使用しますが、これから説明する手順はどの Kubernetes クラスターでも機能するはずです。 +このドキュメントでは、Kubernetes クラスター上の Helm Chart をテスト環境として使用して、TLS 構成で ScalarDL Ledger および ScalarDL Auditor を開始する方法について説明します。ここでは、テスト用の Mac または Linux 環境がすでにあることを前提としています。このドキュメントでは **minikube** を使用しますが、これから説明する手順はどの Kubernetes クラスターでも機能するはずです。 ## 要件 -* ScalarDLのライセンスキー(試用ライセンスまたは商用ライセンス)を取得する必要があります。 ライセンス キーをお持ちでない場合は、[お問い合わせ](https://www.scalar-labs.com/contact) してください。 +* ScalarDLのライセンスキー (試用ライセンスまたは商用ライセンス) を取得する必要があります。ライセンスキーをお持ちでない場合は、[お問い合わせ](https://www.scalar-labs.com/contact)してください。 * TLSに対応したScalarDL v3.9以降を使用する必要があります。 :::note -監査によるビザンチン障害検出を適切に機能させるには、ScalarDL Ledger と ScalarDL Auditor を別の管理ドメインに展開して管理する必要があります。 ただし、このチュートリアルでは、テストを容易にするために、ScalarDL Ledger と ScalarDL Auditor を同じ Kubernetes クラスターにデプロイします。 +監査によるビザンチン障害検出を適切に機能させるには、ScalarDL Ledger と ScalarDL Auditor を別の管理ドメインに展開して管理する必要があります。ただし、このチュートリアルでは、テストを容易にするために、ScalarDL Ledger と ScalarDL Auditor を同じ Kubernetes クラスターにデプロイします。 ::: @@ -52,7 +53,7 @@ +-----------------------------------------------------------------------------------------------------------------------------+ ``` -TLS 接続用に次の秘密キーファイルと証明書ファイルを作成します。 +TLS 接続用に次の秘密鍵ファイルと証明書ファイルを作成します。 ``` +----------------------+ @@ -77,7 +78,7 @@ TLS 接続用に次の秘密キーファイルと証明書ファイルを作成 +----------------------+ ``` -各接続で TLS を有効にするために、各秘密キーと証明書ファイルを次のように設定します。 +各接続で TLS を有効にするために、各秘密鍵と証明書ファイルを次のように設定します。 ``` +--------------------------------+ +--------------------------------+ @@ -106,17 +107,17 @@ ScalarDL 関連コンポーネント間には、次の接続があります。 * **`クライアント - ScalarDL Ledger の Envoy`:** 一部のScalarDL APIを実行すると、クライアントはEnvoy for ScalarDL Ledgerにアクセスします。 * **`クライアント - ScalarDL Auditor の Envoy`:** 一部のScalarDL APIを実行すると、クライアントはEnvoy for ScalarDL Auditorにアクセスします。 -* **`ScalarDL Ledgerの Envoy - ScalarDL Ledger`:** Envoy は、ScalarDL Ledger の前で L7 (gRPC) ロード バランサーとして機能します。 -* **`ScalarDL Auditor の Envoy - ScalarDL Auditor`:** Envoy は、ScalarDL Auditor の前で L7 (gRPC) ロード バランサーとして機能します。 +* **`ScalarDL Ledgerの Envoy - ScalarDL Ledger`:** Envoy は、ScalarDL Ledger の前で L7 (gRPC) ロードバランサーとして機能します。 +* **`ScalarDL Auditor の Envoy - ScalarDL Auditor`:** Envoy は、ScalarDL Auditor の前で L7 (gRPC) ロードバランサーとして機能します。 * **`ScalarDL Auditor - ScalarDL Ledger (ScalarDL Ledger) の Envoy`:** ScalarDL がデータの一貫性を保つために回復プロセスを実行する必要がある場合、ScalarDL Auditor は Envoy を介して ScalarDL Lever に対してリクエストを実行します。 -## ステップ 1. Kubernetes クラスターを開始する +## ステップ1. Kubernetes クラスターを開始する -Kubernetes クラスターを準備し、いくつかのツール (`kubectl`、`helm`、`cfssl`、および `cfssljson`) をインストールする必要があります。 インストール方法の詳細については、[Scalar Helm Charts の開始](getting-started-scalar-helm-charts.mdx) を参照してください。 +Kubernetes クラスターを準備し、いくつかのツール (`kubectl`、`helm`、`cfssl`、および `cfssljson`) をインストールする必要があります。インストール方法の詳細については、[Scalar Helm Charts をはじめよう](getting-started-scalar-helm-charts.mdx)を参照してください。 -## ステップ 2. PostgreSQL コンテナーを開始する +## ステップ2. PostgreSQL コンテナーを開始する -ScalarDL Ledger および ScalarDL Auditor は、バックエンドデータベースとして何らかのデータベースシステムを使用する必要があります。 このチュートリアルでは、PostgreSQL を使用します。 +ScalarDL Ledger および ScalarDL Auditor は、バックエンドデータベースとして何らかのデータベースシステムを使用する必要があります。このチュートリアルでは、PostgreSQL を使用します。 次のようにして、Kubernetes クラスターに PostgreSQL をデプロイできます。 @@ -158,9 +159,9 @@ ScalarDL Ledger および ScalarDL Auditor は、バックエンドデータベ postgresql-ledger-0 1/1 Running 0 16s ``` -## ステップ 3. 作業ディレクトリを作成する +## ステップ3. 作業ディレクトリを作成する -いくつかの構成ファイルと秘密キーおよび証明書ファイルをローカルに作成します。 したがって、それらの作業ディレクトリを作成します。 +いくつかの構成ファイルと秘密鍵および証明書ファイルをローカルに作成します。したがって、それらの作業ディレクトリを作成します。 1. 作業ディレクトリを作成します。 @@ -168,9 +169,9 @@ ScalarDL Ledger および ScalarDL Auditor は、バックエンドデータベ mkdir -p ${HOME}/scalardl-test/certs/ ``` -## ステップ 4. 秘密キーおよび証明書ファイルを作成する +## ステップ4. 秘密鍵および証明書ファイルを作成する -秘密キーと証明書ファイルを作成します。 +秘密鍵と証明書ファイルを作成します。 1. 作業ディレクトリを `${HOME}/scalardl-test/certs/` ディレクトリに変更します。 @@ -200,7 +201,7 @@ ScalarDL Ledger および ScalarDL Auditor は、バックエンドデータベ EOF ``` -1. CA の鍵/証明書ファイルを作成します。 +1. CA の秘密鍵/証明書ファイルを作成します。 ```console cfssl gencert -initca ca.json | cfssljson -bare ca @@ -308,25 +309,25 @@ ScalarDL Ledger および ScalarDL Auditor は、バックエンドデータベ EOF ``` -1. Envoy の秘密キーおよび証明書ファイルを作成します。 +1. Envoy の秘密鍵および証明書ファイルを作成します。 ```console cfssl gencert -ca ca.pem -ca-key ca-key.pem -config ca-config.json -profile scalar-test-ca envoy.json | cfssljson -bare envoy ``` -1. ScalarDL Ledger の秘密キーおよび証明書ファイルを作成します。 +1. ScalarDL Ledger の秘密鍵および証明書ファイルを作成します。 ```console cfssl gencert -ca ca.pem -ca-key ca-key.pem -config ca-config.json -profile scalar-test-ca ledger.json | cfssljson -bare ledger ``` -1. ScalarDL Auditor の秘密キーおよび証明書ファイルを作成します。 +1. ScalarDL Auditor の秘密鍵および証明書ファイルを作成します。 ```console cfssl gencert -ca ca.pem -ca-key ca-key.pem -config ca-config.json -profile scalar-test-ca auditor.json | cfssljson -bare auditor ``` -1. 秘密キーおよび証明書ファイルが作成されたことを確認します。 +1. 秘密鍵および証明書ファイルが作成されたことを確認します。 ```console ls -1 @@ -354,9 +355,9 @@ ScalarDL Ledger および ScalarDL Auditor は、バックエンドデータベ ledger.pem ``` -## ステップ 5. Helm チャートを使用して ScalarDL Ledger と ScalarDL Auditor の DB スキーマを作成する +## ステップ5. Helm Charts を使用して ScalarDL Ledger と ScalarDL Auditor の DB スキーマを作成する -Helm Chart を使用して、Kubernetes クラスターに 2 つの ScalarDL Schema Loader ポッドをデプロイします。 ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger と Auditor の DB スキーマを作成します。 +Helm Chart を使用して、Kubernetes クラスターに2つの ScalarDL Schema Loader ポッドをデプロイします。ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger と Auditor の DB スキーマを作成します。 1. 作業ディレクトリを `${HOME}/scalardl-test/` に変更します。 @@ -400,7 +401,7 @@ Helm Chart を使用して、Kubernetes クラスターに 2 つの ScalarDL Sch EOF ``` -1. PostgreSQL for Ledger のユーザー名とパスワードを含むシークレット リソースを作成します。 +1. PostgreSQL for Ledger のユーザー名とパスワードを含むシークレットリソースを作成します。 ```console kubectl create secret generic schema-ledger-credentials-secret \ @@ -409,7 +410,7 @@ Helm Chart を使用して、Kubernetes クラスターに 2 つの ScalarDL Sch -n default ``` -1. PostgreSQL for Auditor のユーザー名とパスワードを含むシークレット リソースを作成します。 +1. PostgreSQL for Auditor のユーザー名とパスワードを含むシークレットリソースを作成します。 ```console kubectl create secret generic schema-auditor-credentials-secret \ @@ -425,13 +426,13 @@ Helm Chart を使用して、Kubernetes クラスターに 2 つの ScalarDL Sch SCALAR_DL_SCHEMA_LOADER_CHART_VERSION=$(helm search repo scalar-labs/schema-loading -l | grep -F "${SCALAR_DL_VERSION}" | awk '{print $2}' | sort --version-sort -r | head -n 1) ``` -1. Ledger 用の ScalarDL スキーマ ローダーをデプロイします。 +1. Ledger 用の ScalarDL Schema Loader をデプロイします。 ```console helm install schema-loader-ledger scalar-labs/schema-loading -f ${HOME}/scalardl-test/schema-loader-ledger-custom-values.yaml --version ${SCALAR_DL_SCHEMA_LOADER_CHART_VERSION} -n default ``` -1. Auditor 用の ScalarDL スキーマ ローダーをデプロイします。 +1. Auditor 用の ScalarDL Schema Loader をデプロイします。 ```console helm install schema-loader-auditor scalar-labs/schema-loading -f ${HOME}/scalardl-test/schema-loader-auditor-custom-values.yaml --version ${SCALAR_DL_SCHEMA_LOADER_CHART_VERSION} -n default @@ -454,7 +455,7 @@ Helm Chart を使用して、Kubernetes クラスターに 2 つの ScalarDL Sch ``` ScalarDL Schema Loader ポッドが **ContainerCreating** または **Running** の場合は、プロセスが完了するまで待ちます (ステータスは **Completed** になります)。 -## ステップ 6. Helm Chart を使用して Kubernetes クラスターに ScalarDL Ledger と ScalarDL Auditor をデプロイする +## ステップ6. Helm Chart を使用して Kubernetes クラスターに ScalarDL Ledger と ScalarDL Auditor をデプロイする 1. ScalarDL Ledger のカスタム値ファイル (`scalardl-ledger-custom-values.yaml`) を作成します。 @@ -569,14 +570,14 @@ Helm Chart を使用して、Kubernetes クラスターに 2 つの ScalarDL Sch EOF ``` -1. ライセンスキーと証明書を環境変数に設定します。 ライセンスキーをお持ちでない場合は、[お問い合わせ](https://www.scalar-labs.com/contact) してください。 +1. ライセンスキーと証明書を環境変数に設定します。ライセンスキーをお持ちでない場合は、[お問い合わせ](https://www.scalar-labs.com/contact)してください。 ```console SCALAR_DL_LICENSE_KEY= SCALAR_DL_LICENSE_CHECK_CERT_PEM= ``` -1. 資格情報とライセンスキーを含むシークレット リソース `ledger-credentials-secret` を作成します。 +1. 資格情報とライセンスキーを含むシークレットリソース `ledger-credentials-secret` を作成します。 ```console kubectl create secret generic ledger-credentials-secret \ @@ -589,7 +590,7 @@ Helm Chart を使用して、Kubernetes クラスターに 2 つの ScalarDL Sch -n default ``` -1. 資格情報とライセンスキーを含むシークレット リソース `auditor-credentials-secret` を作成します。 +1. 資格情報とライセンスキーを含むシークレットリソース `auditor-credentials-secret` を作成します。 ```console kubectl create secret generic auditor-credentials-secret \ @@ -602,14 +603,14 @@ Helm Chart を使用して、Kubernetes クラスターに 2 つの ScalarDL Sch -n default ``` -1. Envoy の秘密キーファイルと証明書ファイルを含むシークレット リソースを作成します。 +1. Envoy の秘密鍵ファイルと証明書ファイルを含むシークレットリソースを作成します。 ```console kubectl create secret generic envoy-tls-cert --from-file=tls.crt=${HOME}/scalardl-test/certs/envoy.pem -n default kubectl create secret generic envoy-tls-key --from-file=tls.key=${HOME}/scalardl-test/certs/envoy-key.pem -n default ``` -1. ScalarDL Ledger の秘密キー、証明書、CA 証明書ファイルを含むシークレット リソースを作成します。 +1. ScalarDL Ledger の秘密鍵、証明書、CA 証明書ファイルを含むシークレットリソースを作成します。 ```console kubectl create secret generic scalardl-ledger-tls-ca --from-file=ca.crt=${HOME}/scalardl-test/certs/ca.pem -n default @@ -617,7 +618,7 @@ Helm Chart を使用して、Kubernetes クラスターに 2 つの ScalarDL Sch kubectl create secret generic scalardl-ledger-tls-key --from-file=tls.key=${HOME}/scalardl-test/certs/ledger-key.pem -n default ``` -1. ScalarDL Auditor の秘密キー、証明書、CA 証明書ファイルを含むシークレット リソースを作成します。 +1. ScalarDL Auditor の秘密鍵、証明書、CA 証明書ファイルを含むシークレットリソースを作成します。 ```console kubectl create secret generic scalardl-auditor-tls-ca --from-file=ca.crt=${HOME}/scalardl-test/certs/ca.pem -n default @@ -626,7 +627,7 @@ Helm Chart を使用して、Kubernetes クラスターに 2 つの ScalarDL Sch kubectl create secret generic scalardl-auditor-tls-ca-for-ledger --from-file=ca.crt=${HOME}/scalardl-test/certs/ca.pem -n default ``` -1. 秘密リソース `auditor-keys` を作成して、`デジタル署名` 認証方法を無効にします。 このドキュメントでは、 `デジタル署名` の代わりに `hmac` 認証方法を使用します。 +1. シークレットリソース `auditor-keys` を作成して、`デジタル署名` 認証方法を無効にします。このドキュメントでは、 `デジタル署名` の代わりに `hmac` 認証方法を使用します。 ```console kubectl create secret generic auditor-keys \ @@ -634,7 +635,7 @@ Helm Chart を使用して、Kubernetes クラスターに 2 つの ScalarDL Sch --from-literal=certificate=dummy-data-to-disable-digital-signature-method \ -n default ``` - 注: 認証方法として `hmac` を使用する場合は、ダミーのシークレット `auditor-key` を作成して、ヘルム チャート側の `デジタル署名` を無効にする必要があります。 + 注: 認証方法として `hmac` を使用する場合は、ダミーのシークレット `auditor-key` を作成して、Helm Chart 側の `デジタル署名` を無効にする必要があります。 1. ScalarDL のチャートのバージョンを設定します。 @@ -713,21 +714,21 @@ Helm Chart を使用して、Kubernetes クラスターに 2 つの ScalarDL Sch :::note -`scalardl-ledger-headless`、`scalardl-auditor-headless`、`postgresql-ledger-hl`、`postgresql-auditor-hl` の `CLUSTER-IP` の値は、IP アドレスがないため `None` になります。 。 +`scalardl-ledger-headless`、`scalardl-auditor-headless`、`postgresql-ledger-hl`、`postgresql-auditor-hl` の `CLUSTER-IP` の値は、IP アドレスがないため `None` になります。。 ::: -## ステップ 7. クライアントコンテナを開始する +## ステップ7. クライアントコンテナを開始する -クライアントコンテナでCAの証明書ファイルを使用します。 そこで、シークレット リソースを作成し、クライアント コンテナにマウントします。 +クライアントコンテナでCAの証明書ファイルを使用します。そこで、シークレットリソースを作成し、クライアントコンテナにマウントします。 -1. シークレット リソース `client-ca-cert` を作成します。 +1. シークレットリソース `client-ca-cert` を作成します。 ```console kubectl create secret generic client-ca-cert --from-file=certificate=${HOME}/scalardl-test/certs/ca.pem -n default ``` -1. クライアント ポッドのマニフェスト ファイル (`scalardl-client-pod.yaml`) を作成します。 +1. クライアントポッドのマニフェストファイル (`scalardl-client-pod.yaml`) を作成します。 ```console cat << 'EOF' > ${HOME}/scalardl-test/scalardl-client-pod.yaml @@ -757,13 +758,13 @@ Helm Chart を使用して、Kubernetes クラスターに 2 つの ScalarDL Sch EOF ``` -1. マニフェスト ファイルに ScalarDL のバージョンを設定します。 +1. マニフェストファイルに ScalarDL のバージョンを設定します。 ```console sed -i s/SCALAR_DL_CLIENT_POD_SCALAR_DL_VERSION/${SCALAR_DL_VERSION}/ ${HOME}/scalardl-test/scalardl-client-pod.yaml ``` -1. クライアント ポッドをデプロイします。 +1. クライアントポッドをデプロイします。 ```console kubectl apply -f ${HOME}/scalardl-test/scalardl-client-pod.yaml -n default @@ -782,9 +783,9 @@ Helm Chart を使用して、Kubernetes クラスターに 2 つの ScalarDL Sch scalardl-client 1/1 Running 0 4s ``` -## ステップ 8. クライアント コンテナで ScalarDL サンプル コントラクトを実行する +## ステップ8. クライアントコンテナで ScalarDL サンプルコントラクトを実行する -以下に最低限の手順を説明します。 ScalarDL LedgerとScalarDL Auditorについて詳しく知りたい場合は、以下のドキュメントを参照してください。 +以下に最低限の手順を説明します。ScalarDL LedgerとScalarDL Auditorについて詳しく知りたい場合は、以下のドキュメントを参照してください。 * [ScalarDL 入門](https://scalardl.scalar-labs.com/docs/latest/getting-started/) * [ScalarDL Auditor 入門](https://scalardl.scalar-labs.com/docs/latest/getting-started-auditor/) @@ -902,7 +903,7 @@ Helm Chart を使用して、Kubernetes クラスターに 2 つの ScalarDL Sch ```console ./scalardl-java-client-sdk-${SCALAR_DL_VERSION}/bin/scalardl execute-contract --config ./client.properties --contract-id StateUpdater --contract-argument '{"asset_id": "test_asset", "state": 3}' ``` - このサンプル コントラクトは、`test_asset` という名前のアセットの `state` (値) を `3` に更新します。 + このサンプルコントラクトは、`test_asset` という名前のアセットの `state` (値) を `3` に更新します。 1. コントラクト `StateReader` を実行します。 @@ -928,7 +929,7 @@ Helm Chart を使用して、Kubernetes クラスターに 2 つの ScalarDL Sch * 資産データが改ざんされていない場合、`execute-contract` コマンドを実行してコントラクトの実行を要求すると、結果として `OK` が返されます。 * 資産データが改ざんされている場合 (たとえば、データベース内の `state` 値が改ざんされている場合)、コントラクトの実行を要求する `execute-contract` コマンドを実行すると、実行結果として `OK` 以外の値が返されます (たとえば、 `INCONSISTENT_STATES`)。ScalarDL がデータ改ざんを検出する方法の例として、以下を参照してください。 - [コマンド実行結果(資産データが改ざんされている場合)] + [コマンド実行結果 (資産データが改ざんされている場合) ] ```console { @@ -968,9 +969,9 @@ Helm Chart を使用して、Kubernetes クラスターに 2 つの ScalarDL Sch ### 参考情報 * 資産データが改ざんされていない場合、`validate-ledger` コマンドを実行して検証を要求すると、結果として `OK` が返されます。 - * 資産データが改ざんされている場合 (たとえば、データベース内の `state` 値が改ざんされている場合)、`validate-ledger` コマンドを実行して検証を要求すると、実行結果として `OK` 以外の値が返されます (たとえば、`INVALID_OUTPUT`)。 ScalarDL がデータ改ざんを検出する方法の例として、以下を参照してください。 + * 資産データが改ざんされている場合 (たとえば、データベース内の `state` 値が改ざんされている場合)、`validate-ledger` コマンドを実行して検証を要求すると、実行結果として `OK` 以外の値が返されます (たとえば、`INVALID_OUTPUT`)。ScalarDL がデータ改ざんを検出する方法の例として、以下を参照してください。 - [コマンド実行結果(資産データが改ざんされている場合)] + [コマンド実行結果 (資産データが改ざんされている場合) ] ```console { @@ -979,7 +980,7 @@ Helm Chart を使用して、Kubernetes クラスターに 2 つの ScalarDL Sch } ``` -## ステップ 9. すべてのリソースを削除する +## ステップ9. すべてのリソースを削除する Kubernetes クラスターで ScalarDL Ledger テストと ScalarDL Auditor テストを完了したら、すべてのリソースを削除します。 @@ -1001,7 +1002,7 @@ Kubernetes クラスターで ScalarDL Ledger テストと ScalarDL Auditor テ kubectl delete secrets envoy-tls-key envoy-tls-cert schema-ledger-credentials-secret schema-auditor-credentials-secret ledger-credentials-secret scalardl-ledger-tls-ca scalardl-ledger-tls-cert scalardl-ledger-tls-key auditor-credentials-secret auditor-keys scalardl-auditor-tls-ca scalardl-auditor-tls-cert scalardl-auditor-tls-key scalardl-auditor-tls-ca-for-ledger client-ca-cert ``` -1. 作業ディレクトリとサンプル ファイル (構成ファイル、秘密キー、および証明書) を削除します。 +1. 作業ディレクトリとサンプルファイル (構成ファイル、秘密鍵、および証明書) を削除します。 ```console cd ${HOME} @@ -1015,6 +1016,6 @@ Kubernetes クラスターで ScalarDL Ledger テストと ScalarDL Auditor テ Scalar 製品の監視またはログ記録を開始する方法については、次のドキュメントで説明しています。 -* [Helm Charts の入門 (Prometheus Operator を使用したモニタリング)](getting-started-monitoring.mdx) -* [Helm Charts の入門 (Loki スタックを使用したロギング)](getting-started-logging.mdx) -* [Helm Charts の入門 (Scalar Manager)](getting-started-scalar-manager.mdx) +* [Helm Charts をはじめよう (Prometheus Operator を使用したモニタリング)](getting-started-monitoring.mdx) +* [Helm Charts をはじめよう (Loki スタックを使用したロギング)](getting-started-logging.mdx) +* [Helm Charts をはじめよう (Scalar Manager)](getting-started-scalar-manager.mdx) diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalardl-auditor.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalardl-auditor.mdx index ee22d881..bce1670c 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalardl-auditor.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalardl-auditor.mdx @@ -1,13 +1,14 @@ --- +displayed_sidebar: docsJapanese --- -# Helm Charts の入門 (ScalarDL Ledger と Auditor / Auditor モード) +# Helm Charts をはじめよう (ScalarDL Ledger と Auditor / Auditor モード) import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、Kubernetes クラスター上の Helm Chart をテスト環境として使用して、ScalarDL Ledger および Auditor を開始する方法について説明します。 ここでは、テスト用の Mac または Linux 環境がすでにあることを前提としています。 このドキュメントでは **Minikube** を使用しますが、これから説明する手順はどの Kubernetes クラスターでも機能するはずです。 +このドキュメントでは、Kubernetes クラスター上の Helm Chart をテスト環境として使用して、ScalarDL Ledger および Auditor を開始する方法について説明します。ここでは、テスト用の Mac または Linux 環境がすでにあることを前提としています。このドキュメントでは **Minikube** を使用しますが、これから説明する手順はどの Kubernetes クラスターでも機能するはずです。 ## 要件 @@ -30,7 +31,7 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; * [How to install Scalar products through Azure Marketplace](../scalar-kubernetes/AzureMarketplaceGuide.mdx) ## 注記 -監査によるビザンチン障害検出を適切に機能させるには、Ledger と Auditor を異なる管理ドメインに展開して管理する必要があります。 ただし、このガイドでは、テストを容易にするために、Ledger と Auditor を同じ Kubernetes クラスターにデプロイします。 +監査によるビザンチン障害検出を適切に機能させるには、Ledger と Auditor を異なる管理ドメインに展開して管理する必要があります。ただし、このガイドでは、テストを容易にするために、Ledger と Auditor を同じ Kubernetes クラスターにデプロイします。 ## 私たちが作るもの @@ -68,13 +69,13 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; +-----------------------------------------------------------------------------------------------------------------------------+ ``` -## ステップ 1. Kubernetes クラスターを開始する +## ステップ1. Kubernetes クラスターを開始する -まず、Kubernetes クラスターを準備する必要があります。 **minikube** 環境を使用する場合は、[Scalar Helm Charts の入門] (./getting-started-scalar-helm-charts.mdx)を参照してください。 すでに Kubernetes クラスターを開始している場合は、この手順をスキップできます。 +まず、Kubernetes クラスターを準備する必要があります。**minikube** 環境を使用する場合は、[Scalar Helm Charts をはじめよう](./getting-started-scalar-helm-charts.mdx)を参照してください。すでに Kubernetes クラスターを開始している場合は、この手順をスキップできます。 -## ステップ 2. PostgreSQL コンテナーを開始する +## ステップ2. PostgreSQL コンテナーを開始する -ScalarDL Ledger と Auditor は、バックエンド データベースとして何らかのデータベース システムを使用します。 このドキュメントでは PostgreSQL を使用します。 +ScalarDL Ledger と Auditor は、バックエンドデータベースとして何らかのデータベースシステムを使用します。このドキュメントでは PostgreSQL を使用します。 次のようにして、Kubernetes クラスターに PostgreSQL をデプロイできます。 @@ -108,18 +109,18 @@ ScalarDL Ledger と Auditor は、バックエンド データベースとして postgresql-ledger-0 1/1 Running 0 16s ``` -## ステップ 3. 作業ディレクトリを作成する +## ステップ3. 作業ディレクトリを作成する -いくつかの構成ファイルとキー/証明書ファイルをローカルに作成します。 したがって、それらの作業ディレクトリを作成します。 +いくつかの構成ファイルとキー/証明書ファイルをローカルに作成します。したがって、それらの作業ディレクトリを作成します。 1. 作業ディレクトリを作成します。 ```console mkdir -p ~/scalardl-test/certs/ ``` -## ステップ 4. 秘密鍵/証明書ファイルを作成する +## ステップ4. 秘密鍵/証明書ファイルを作成する -注記:このガイドでは、テストに自己署名証明書を使用します。 ただし、これらの証明書を運用環境では使用しないことを強くお勧めします。 +注記:このガイドでは、テストに自己署名証明書を使用します。ただし、これらの証明書を運用環境では使用しないことを強くお勧めします。 1. 作業ディレクトリを `~/scalardl-test/certs/` ディレクトリに変更します。 ```console @@ -230,9 +231,9 @@ ScalarDL Ledger と Auditor は、バックエンド データベースとして ledger.pem ``` -## ステップ 5. Helm Charts を使用して ScalarDL Ledger と ScalarDL Auditor の DB スキーマを作成する +## ステップ5. Helm Charts を使用して ScalarDL Ledger と ScalarDL Auditor の DB スキーマを作成する -Helm Chart を使用して、Kubernetes クラスターに 2 つの ScalarDL Schema Loader ポッドをデプロイします。 +Helm Chart を使用して、Kubernetes クラスターに2つの ScalarDL Schema Loader ポッドをデプロイします。 ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger と Auditor の DB スキーマを作成します。 1. 作業ディレクトリを `~/scalardl-test/` に変更します。 @@ -245,7 +246,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger と Auditor の DB helm repo add scalar-labs https://scalar-labs.github.io/helm-charts ``` -1. AWS/Azure Marketplace から ScalarDL コンテナー イメージをプルするためのシークレット リソースを作成します。 +1. AWS/Azure Marketplace から ScalarDL コンテナーイメージをプルするためのシークレットリソースを作成します。 * AWS Marketplace ```console kubectl create secret docker-registry reg-ecr-mp-secrets \ @@ -262,7 +263,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger と Auditor の DB ``` 詳細については、以下のドキュメントを参照してください。 - + * [How to install Scalar products through AWS Marketplace](../scalar-kubernetes/AwsMarketplaceGuide.mdx) * [How to install Scalar products through Azure Marketplace](../scalar-kubernetes/AzureMarketplaceGuide.mdx) @@ -288,7 +289,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger と Auditor の DB ``` * Azure Marketplace - + ```console cat << 'EOF' > ~/scalardl-test/schema-loader-ledger-custom-values.yaml schemaLoading: @@ -329,7 +330,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger と Auditor の DB ``` * Azure Marketplace - + ```console cat << 'EOF' > ~/scalardl-test/schema-loader-auditor-custom-values.yaml schemaLoading: @@ -348,14 +349,14 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger と Auditor の DB EOF ``` -1. PostgreSQL for Ledger のユーザー名とパスワードを含むシークレット リソースを作成します。 +1. PostgreSQL for Ledger のユーザー名とパスワードを含むシークレットリソースを作成します。 ```console kubectl create secret generic ledger-credentials-secret \ --from-literal=SCALAR_DL_LEDGER_POSTGRES_USERNAME=postgres \ --from-literal=SCALAR_DL_LEDGER_POSTGRES_PASSWORD=postgres ``` -1. PostgreSQL for Auditor のユーザー名とパスワードを含むシークレット リソースを作成します。 +1. PostgreSQL for Auditor のユーザー名とパスワードを含むシークレットリソースを作成します。 ```console kubectl create secret generic auditor-credentials-secret \ --from-literal=SCALAR_DL_AUDITOR_POSTGRES_USERNAME=postgres \ @@ -386,7 +387,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger と Auditor の DB ``` ScalarDL Schema Loader ポッドが **ContainerCreating** または **Running** の場合は、プロセスが完了するまで待ちます (STATUS は **Completed** になります)。 -## ステップ 6. Helm Chart を使用して Kubernetes クラスターに ScalarDL Ledger と Auditor をデプロイする +## ステップ6. Helm Chart を使用して Kubernetes クラスターに ScalarDL Ledger と Auditor をデプロイする 1. ScalarDL Ledger のカスタム値ファイル (scalardl-ledger-custom-values.yaml) を作成します。 * AWS Marketplace @@ -399,7 +400,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger と Auditor の DB version: "1.3.0" imagePullSecrets: - name: "reg-ecr-mp-secrets" - + ledger: image: repository: "709825985650.dkr.ecr.us-east-1.amazonaws.com/scalar/scalar-ledger" @@ -436,7 +437,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger と Auditor の DB version: "1.3.0" imagePullSecrets: - name: "reg-acr-secrets" - + ledger: image: repository: "/scalarinc/scalar-ledger" @@ -473,7 +474,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger と Auditor の DB version: "1.3.0" imagePullSecrets: - name: "reg-ecr-mp-secrets" - + auditor: image: repository: "709825985650.dkr.ecr.us-east-1.amazonaws.com/scalar/scalar-auditor" @@ -510,7 +511,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger と Auditor の DB version: "1.3.0" imagePullSecrets: - name: "reg-acr-secrets" - + auditor: image: repository: "/scalarinc/scalar-auditor" @@ -537,12 +538,12 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger と Auditor の DB EOF ``` -1. 秘密リソース `ledger-keys` を作成します。 +1. シークレットリソース `ledger-keys` を作成します。 ```console kubectl create secret generic ledger-keys --from-file=certificate=./certs/ledger.pem --from-file=private-key=./certs/ledger-key.pem ``` -1. 秘密リソース `auditor-keys` を作成します。 +1. シークレットリソース `auditor-keys` を作成します。 ```console kubectl create secret generic auditor-keys --from-file=certificate=./certs/auditor.pem --from-file=private-key=./certs/auditor-key.pem ``` @@ -604,18 +605,18 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger と Auditor の DB scalardl-ledger-headless ClusterIP None 50051/TCP,50053/TCP,50052/TCP 61s scalardl-ledger-metrics ClusterIP 10.99.122.106 8080/TCP 61s ``` - ScalarDL Ledger サービスと Auditor サービスが適切にデプロイされている場合は、CLUSTER-IP 列にプライベート IP アドレスが表示されます。 (注記: `scalardl-ledger-headless` と `scalardl-auditor-headless` には CLUSTER-IP がありません。) + ScalarDL Ledger サービスと Auditor サービスが適切にデプロイされている場合は、CLUSTER-IP 列にプライベート IP アドレスが表示されます。(注記: `scalardl-ledger-headless` と `scalardl-auditor-headless` には CLUSTER-IP がありません。) -## ステップ 7. クライアントコンテナを開始する +## ステップ7. クライアントコンテナを開始する -クライアントコンテナで証明書ファイルを使用します。 そこで、シークレット リソースを作成し、クライアント コンテナにマウントします。 +クライアントコンテナで証明書ファイルを使用します。そこで、シークレットリソースを作成し、クライアントコンテナにマウントします。 -1. 秘密リソース `client-keys` を作成します。 +1. シークレットリソース `client-keys` を作成します。 ``` kubectl create secret generic client-keys --from-file=certificate=./certs/client.pem --from-file=private-key=./certs/client-key.pem ``` -1. Kubernetes クラスター上でクライアント コンテナーを起動します。 +1. Kubernetes クラスター上でクライアントコンテナーを起動します。 ```console cat << 'EOF' | kubectl apply -f - apiVersion: v1 @@ -648,7 +649,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger と Auditor の DB - name: "client-keys" secret: secretName: "client-keys" - restartPolicy: Never + restartPolicy: Never EOF ``` @@ -662,21 +663,21 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger と Auditor の DB scalardl-client 1/1 Running 0 4s ``` -## ステップ 8. クライアント コンテナで ScalarDL サンプル コントラクトを実行する +## ステップ8. クライアントコンテナで ScalarDL サンプルコントラクトを実行する -以下に最低限の手順を説明します。 ScalarDL Ledger とAuditor について詳しく知りたい場合は、以下のドキュメントを参照してください。 +以下に最低限の手順を説明します。ScalarDL Ledger と Auditor について詳しく知りたい場合は、以下のドキュメントを参照してください。 * [Getting Started with ScalarDL](https://scalardl.scalar-labs.com/ja-jp/docs/latest/getting-started) * [Getting Started with ScalarDL Auditor](https://scalardl.scalar-labs.com/ja-jp/docs/latest/getting-started-auditor) -Auditor を使用する場合、クライアントアプリケーションを起動する前に Ledger と Auditor の証明書を登録する必要があります。 Ledger はその証明書を Auditor に登録する必要があり、Auditor はその証明書を Ledger に登録する必要があります。 +Auditor を使用する場合、クライアントアプリケーションを起動する前に Ledger と Auditor の証明書を登録する必要があります。Ledger はその証明書を Auditor に登録する必要があり、Auditor はその証明書を Ledger に登録する必要があります。 1. クライアントコンテナで bash を実行します。 ```console kubectl exec -it scalardl-client -- bash ``` - この手順の後、クライアント コンテナで各コマンドを実行します。 + この手順の後、クライアントコンテナで各コマンドを実行します。 -1. git、curl、および unzip コマンドをクライアント コンテナにインストールします。 +1. git、curl、および unzip コマンドをクライアントコンテナにインストールします。 ```console apt update && apt install -y git curl unzip ``` @@ -711,7 +712,7 @@ Auditor を使用する場合、クライアントアプリケーションを起 master * v3.6.0 ``` - 別のバージョンを使用する場合は、使用するバージョン(タグ)を指定してください。 同じバージョンの ScalarDL Ledger と ScalarDL Java Client SDK を使用する必要があります。 + 別のバージョンを使用する場合は、使用するバージョン (タグ) を指定してください。同じバージョンの ScalarDL Ledger と ScalarDL Java Client SDK を使用する必要があります。 1. サンプルコントラクトを作成します。 ```console @@ -734,11 +735,11 @@ Auditor を使用する場合、クライアントアプリケーションを起 cat << 'EOF' > ledger.as.client.properties # Ledger scalar.dl.client.server.host=scalardl-ledger-envoy.default.svc.cluster.local - + # Auditor scalar.dl.client.auditor.enabled=true scalar.dl.client.auditor.host=scalardl-auditor-envoy.default.svc.cluster.local - + # Certificate scalar.dl.client.cert_holder_id=ledger scalar.dl.client.cert_path=/keys/ledger/certificate @@ -751,11 +752,11 @@ Auditor を使用する場合、クライアントアプリケーションを起 cat << 'EOF' > auditor.as.client.properties # Ledger scalar.dl.client.server.host=scalardl-ledger-envoy.default.svc.cluster.local - + # Auditor scalar.dl.client.auditor.enabled=true scalar.dl.client.auditor.host=scalardl-auditor-envoy.default.svc.cluster.local - + # Certificate scalar.dl.client.cert_holder_id=auditor scalar.dl.client.cert_path=/keys/auditor/certificate @@ -768,11 +769,11 @@ Auditor を使用する場合、クライアントアプリケーションを起 cat << 'EOF' > client.properties # Ledger scalar.dl.client.server.host=scalardl-ledger-envoy.default.svc.cluster.local - + # Auditor scalar.dl.client.auditor.enabled=true scalar.dl.client.auditor.host=scalardl-auditor-envoy.default.svc.cluster.local - + # Certificate scalar.dl.client.cert_holder_id=client scalar.dl.client.cert_path=/keys/client/certificate @@ -814,7 +815,7 @@ Auditor を使用する場合、クライアントアプリケーションを起 ```console ./scalardl-java-client-sdk-3.6.0/bin/execute-contract --properties ./client.properties --contract-id StateUpdater --contract-argument '{"asset_id": "test_asset", "state": 3}' ``` - このサンプル コントラクトは、`test_asset` という名前のアセットの `state` (値) を `3` に更新します。 + このサンプルコントラクトは、`test_asset` という名前のアセットの `state` (値) を `3` に更新します。 1. コントラクト `StateReader` を実行します。 ```console @@ -832,9 +833,9 @@ Auditor を使用する場合、クライアントアプリケーションを起 } ``` * 参考情報 - * 資産データが改ざんされていない場合、コントラクト実行要求(execute-contract コマンド)は結果として `OK` を返します。 - * 資産データが改ざんされている場合(例:DBの `state` 値が改ざんされている場合)、コントラクト実行要求(execute-contract コマンド)は結果として `OK` 以外の値(例:`INCONSISTENT_STATES`)を返す , 以下のような感じです。 - 【コマンド実行結果(資産データが改ざんされた場合)】 + * 資産データが改ざんされていない場合、コントラクト実行要求 (execute-contract コマンド) は結果として `OK` を返します。 + * 資産データが改ざんされている場合 (例: DB の `state` 値が改ざんされている場合) 、コントラクト実行要求 (execute-contract コマンド) は結果として `OK` 以外の値 (例:`INCONSISTENT_STATES`) を返す , 以下のような感じです。 + 【コマンド実行結果 (資産データが改ざんされた場合) 】 ```console { "status_code" : "INCONSISTENT_STATES", @@ -868,9 +869,9 @@ Auditor を使用する場合、クライアントアプリケーションを起 } ``` * 参考情報 - * 資産データが改ざんされていない場合、検証リクエスト(validate-ledger コマンド)は結果として `OK` を返します。 - * 資産データが改ざんされている場合(例:DBの `state` 値が改ざんされている場合)、検証リクエスト(validate-ledger コマンド)は結果として `OK` 以外の値(例: `INVALID_OUTPUT`)を返します。 以下のような。 - 【コマンド実行結果(資産データが改ざんされた場合)】 + * 資産データが改ざんされていない場合、検証リクエスト (validate-ledger コマンド) は結果として `OK` を返します。 + * 資産データが改ざんされている場合 (例: DB の `state` 値が改ざんされている場合) 、検証リクエスト (validate-ledger コマンド) は結果として `OK` 以外の値 (例: `INVALID_OUTPUT`) を返します。以下のような。 + 【コマンド実行結果 (資産データが改ざんされた場合) 】 ```console { "status_code" : "INCONSISTENT_STATES", @@ -879,7 +880,7 @@ Auditor を使用する場合、クライアントアプリケーションを起 ``` * このようにして、ScalarDL Ledger はデータの改ざんを検出できます。 -## ステップ 9. すべてのリソースを削除する +## ステップ9. すべてのリソースを削除する Kubernetes クラスターで ScalarDL Ledger テストを完了したら、すべてのリソースを削除します。 @@ -893,7 +894,7 @@ Kubernetes クラスターで ScalarDL Ledger テストを完了したら、す kubectl delete pod scalardl-client --force --grace-period 0 ``` -1. 作業ディレクトリとサンプル ファイル (構成ファイル、キー、証明書) を削除します。 +1. 作業ディレクトリとサンプルファイル (構成ファイル、秘密鍵、証明書) を削除します。 ```console cd ~ ``` @@ -905,6 +906,6 @@ Kubernetes クラスターで ScalarDL Ledger テストを完了したら、す Scalar 製品の監視またはログ記録を開始する方法については、次のドキュメントで説明しています。 -* [Helm Charts の入門 (Prometheus Operator を使用したモニタリング)](getting-started-monitoring.mdx) -* [Helm Charts の入門 (Loki スタックを使用したロギング)](getting-started-logging.mdx) -* [Helm Charts の入門 (Scalar Manager)](getting-started-scalar-manager.mdx) +* [Helm Charts をはじめよう (Prometheus Operator を使用したモニタリング)](getting-started-monitoring.mdx) +* [Helm Charts をはじめよう (Loki スタックを使用したロギング)](getting-started-logging.mdx) +* [Helm Charts をはじめよう (Scalar Manager)](getting-started-scalar-manager.mdx) diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalardl-ledger.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalardl-ledger.mdx index c42dba26..8e006230 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalardl-ledger.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/getting-started-scalardl-ledger.mdx @@ -1,13 +1,14 @@ --- +displayed_sidebar: docsJapanese --- -# Helm Charts の入門 (ScalarDL Ledger / Ledger のみ) +# Helm Charts をはじめよう (ScalarDL Ledger / Ledger のみ) import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、Kubernetes クラスター上の Helm Chart をテスト環境として使用して、ScalarDL Ledger を開始する方法について説明します。 ここでは、テスト用の Mac または Linux 環境がすでにあることを前提としています。 このドキュメントでは **Minikube** を使用しますが、これから説明する手順はどの Kubernetes クラスターでも機能するはずです。 +このドキュメントでは、Kubernetes クラスター上の Helm Chart をテスト環境として使用して、ScalarDL Ledger を開始する方法について説明します。ここでは、テスト用の Mac または Linux 環境がすでにあることを前提としています。このドキュメントでは **Minikube** を使用しますが、これから説明する手順はどの Kubernetes クラスターでも機能するはずです。 ## 要件 @@ -50,13 +51,13 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; +--------------------------------------------------------------------------------------------------------------------------------------+ ``` -## ステップ 1. Kubernetes クラスターを開始する +## ステップ1. Kubernetes クラスターを開始する -まず、Kubernetes クラスターを準備する必要があります。 **minikube** 環境を使用する場合は、[Scalar Helm Charts の入門](./getting-started-scalar-helm-charts.mdx) を参照してください。 すでに Kubernetes クラスターを開始している場合は、この手順をスキップできます。 +まず、Kubernetes クラスターを準備する必要があります。**minikube** 環境を使用する場合は、[Scalar Helm Charts をはじめよう](./getting-started-scalar-helm-charts.mdx)を参照してください。すでに Kubernetes クラスターを開始している場合は、この手順をスキップできます。 -## ステップ 2. PostgreSQL コンテナーを開始する +## ステップ2. PostgreSQL コンテナーを開始する -ScalarDL Ledger は、バックエンド データベースとして何らかのデータベース システムを使用します。 このドキュメントでは PostgreSQL を使用します。 +ScalarDL Ledger は、バックエンドデータベースとして何らかのデータベースシステムを使用します。このドキュメントでは PostgreSQL を使用します。 次のようにして、Kubernetes クラスターに PostgreSQL をデプロイできます。 @@ -82,18 +83,18 @@ ScalarDL Ledger は、バックエンド データベースとして何らかの postgresql-ledger-0 1/1 Running 0 11s ``` -## ステップ 3. 作業ディレクトリを作成する +## ステップ3. 作業ディレクトリを作成する -いくつかの構成ファイルとキー/証明書ファイルをローカルに作成します。 したがって、それらの作業ディレクトリを作成します。 +いくつかの構成ファイルとキー/証明書ファイルをローカルに作成します。したがって、それらの作業ディレクトリを作成します。 1. 作業ディレクトリを作成します。 ```console mkdir -p ~/scalardl-test/certs/ ``` -## ステップ 4. キー/証明書ファイルを作成する +## ステップ4. キー/証明書ファイルを作成する -注記:このガイドでは、テストに自己署名証明書を使用します。 ただし、これらの証明書を運用環境では使用しないことを強くお勧めします。 +注記:このガイドでは、テストに自己署名証明書を使用します。ただし、これらの証明書を運用環境では使用しないことを強くお勧めします。 1. 作業ディレクトリを `~/scalardl-test/certs/` ディレクトリに変更します。 ```console @@ -172,7 +173,7 @@ ScalarDL Ledger は、バックエンド データベースとして何らかの ledger.pem ``` -## ステップ 5. Helm Charts を使用して ScalarDL Ledger の DB スキーマを作成する +## ステップ5. Helm Charts を使用して ScalarDL Ledger の DB スキーマを作成する Helm Charts を使用して、ScalarDL Schema Loader を Kubernetes クラスターにデプロイします。 ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger の DB スキーマを作成します。 @@ -187,7 +188,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger の DB スキーマ helm repo add scalar-labs https://scalar-labs.github.io/helm-charts ``` -1. AWS/Azure Marketplace から ScalarDL コンテナー イメージをプルするためのシークレット リソースを作成します。 +1. AWS/Azure Marketplace から ScalarDL コンテナーイメージをプルするためのシークレットリソースを作成します。 * AWS Marketplace ```console kubectl create secret docker-registry reg-ecr-mp-secrets \ @@ -204,7 +205,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger の DB スキーマ ``` 詳細については、以下のドキュメントを参照してください。 - + * [How to install Scalar products through AWS Marketplace](../scalar-kubernetes/AwsMarketplaceGuide.mdx) * [How to install Scalar products through Azure Marketplace](../scalar-kubernetes/AzureMarketplaceGuide.mdx) @@ -249,7 +250,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger の DB スキーマ EOF ``` -1. PostgreSQL のユーザー名とパスワードを含むシークレット リソースを作成します。 +1. PostgreSQL のユーザー名とパスワードを含むシークレットリソースを作成します。 ```console kubectl create secret generic ledger-credentials-secret \ --from-literal=SCALAR_DL_LEDGER_POSTGRES_USERNAME=postgres \ @@ -273,7 +274,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger の DB スキーマ ``` ScalarDL Schema Loader ポッドが **ContainerCreating** または **Running** の場合は、プロセスが完了するまで待ちます (STATUS は **Completed** になります)。 -## ステップ 6. Helm Charts を使用して Kubernetes クラスターに ScalarDL Ledger をデプロイする +## ステップ6. Helm Charts を使用して Kubernetes クラスターに ScalarDL Ledger をデプロイする 1. ScalarDL Ledger のカスタム値ファイル (scalardl-ledger-custom-values.yaml) を作成します。 * AWS Marketplace @@ -286,7 +287,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger の DB スキーマ version: "1.3.0" imagePullSecrets: - name: "reg-ecr-mp-secrets" - + ledger: image: repository: "709825985650.dkr.ecr.us-east-1.amazonaws.com/scalar/scalar-ledger" @@ -322,7 +323,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger の DB スキーマ version: "1.3.0" imagePullSecrets: - name: "reg-acr-secrets" - + ledger: image: repository: "/scalarinc/scalar-ledger" @@ -348,7 +349,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger の DB スキーマ EOF ``` -1. 秘密リソース `ledger-keys` を作成します。 +1. シークレットリソース `ledger-keys` を作成します。 ```console kubectl create secret generic ledger-keys --from-file=private-key=./certs/ledger-key.pem ``` @@ -391,18 +392,18 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger の DB スキーマ scalardl-ledger-headless ClusterIP None 50051/TCP,50053/TCP,50052/TCP 83s scalardl-ledger-metrics ClusterIP 10.98.4.217 8080/TCP 83s ``` - ScalarDL Ledger サービスが適切にデプロイされている場合は、CLUSTER-IP 列にプライベート IP アドレスが表示されます。 (注記: `scalardl-ledger-headless` には CLUSTER-IP がありません。) + ScalarDL Ledger サービスが適切にデプロイされている場合は、CLUSTER-IP 列にプライベート IP アドレスが表示されます。(注記: `scalardl-ledger-headless` には CLUSTER-IP がありません。) -## ステップ 7. クライアントコンテナを開始する +## ステップ7. クライアントコンテナを開始する -クライアントコンテナで証明書ファイルを使用します。 そこで、シークレット リソースを作成し、クライアント コンテナにマウントします。 +クライアントコンテナで証明書ファイルを使用します。そこで、シークレットリソースを作成し、クライアントコンテナにマウントします。 -1. 秘密リソース `client-keys` を作成します。 +1. シークレットリソース `client-keys` を作成します。 ``` kubectl create secret generic client-keys --from-file=certificate=./certs/client.pem --from-file=private-key=./certs/client-key.pem ``` -1. Kubernetes クラスター上でクライアント コンテナーを起動します。 +1. Kubernetes クラスター上でクライアントコンテナーを起動します。 ```console cat << 'EOF' | kubectl apply -f - apiVersion: v1 @@ -423,7 +424,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger の DB スキーマ - name: "client-keys" secret: secretName: "client-keys" - restartPolicy: Never + restartPolicy: Never EOF ``` @@ -437,17 +438,17 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger の DB スキーマ scalardl-client 1/1 Running 0 11s ``` -## ステップ 8. クライアント コンテナで ScalarDL サンプル コントラクトを実行する +## ステップ8. クライアントコンテナで ScalarDL サンプルコントラクトを実行する -以下に最低限の手順を説明します。 ScalarDL の詳細やコントラクトについて知りたい場合は、[Getting Started with ScalarDL](https://scalardl.scalar-labs.com/ja-jp/docs/latest/getting-started) をご覧ください。 +以下に最低限の手順を説明します。ScalarDL の詳細やコントラクトについて知りたい場合は、[Getting Started with ScalarDL](https://scalardl.scalar-labs.com/ja-jp/docs/latest/getting-started) をご覧ください。 1. クライアントコンテナで bash を実行します。 ```console kubectl exec -it scalardl-client -- bash ``` - この手順の後、クライアント コンテナで各コマンドを実行します。 + この手順の後、クライアントコンテナで各コマンドを実行します。 -1. git、curl、および unzip コマンドをクライアント コンテナにインストールします。 +1. git、curl、および unzip コマンドをクライアントコンテナにインストールします。 ```console apt update && apt install -y git curl unzip ``` @@ -482,7 +483,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger の DB スキーマ master * v3.6.0 ``` - 別のバージョンを使用する場合は、使用するバージョン(タグ)を指定してください。 同じバージョンの ScalarDL Ledger と ScalarDL Java Client SDK を使用する必要があります。 + 別のバージョンを使用する場合は、使用するバージョン (タグ) を指定してください。同じバージョンの ScalarDL Ledger と ScalarDL Java Client SDK を使用する必要があります。 1. サンプルコントラクトを作成します。 ```console @@ -529,7 +530,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger の DB スキーマ ```console ./scalardl-java-client-sdk-3.6.0/bin/execute-contract --properties ./client.properties --contract-id StateUpdater --contract-argument '{"asset_id": "test_asset", "state": 3}' ``` - このサンプル コントラクトは、`test_asset` という名前のアセットの `state` (値) を `3` に更新します。 + このサンプルコントラクトは、`test_asset` という名前のアセットの `state` (値) を `3` に更新します。 1. コントラクト `StateReader` を実行します。 ```console @@ -566,9 +567,9 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger の DB スキーマ } ``` * 参考情報 - * 資産データが改ざんされていない場合、検証リクエスト(validate-ledger コマンド)は結果として `OK` を返します。 - * 資産データが改ざんされている場合(例:DBの `state` 値が改ざんされている場合)、検証リクエスト(validate-ledger コマンド)は結果として `OK` 以外の値(例:`INVALID_OUTPUT`)を返します。 以下のような。 - 【コマンド実行結果(資産データが改ざんされた場合)】 + * 資産データが改ざんされていない場合、検証リクエスト (validate-ledger コマンド) は結果として `OK` を返します。 + * 資産データが改ざんされている場合 (例: DB の `state` 値が改ざんされている場合)、検証リクエスト (validate-ledger コマンド) は結果として `OK` 以外の値 (例:`INVALID_OUTPUT`) を返します。以下のような。 + 【コマンド実行結果 (資産データが改ざんされた場合) 】 ```console { "status_code" : "INVALID_OUTPUT", @@ -584,7 +585,7 @@ ScalarDL Schema Loader は、PostgreSQL で ScalarDL Ledger の DB スキーマ ``` * このようにして、ScalarDL Ledger はデータの改ざんを検出できます。 -## ステップ 9. すべてのリソースを削除する +## ステップ9. すべてのリソースを削除する Kubernetes クラスターで ScalarDL Ledger テストを完了したら、すべてのリソースを削除します。 @@ -598,7 +599,7 @@ Kubernetes クラスターで ScalarDL Ledger テストを完了したら、す kubectl delete pod scalardl-client --force --grace-period 0 ``` -1. 作業ディレクトリとサンプル ファイル (構成ファイル、キー、証明書) を削除します。 +1. 作業ディレクトリとサンプルファイル (構成ファイル、秘密鍵、証明書) を削除します。 ```console cd ~ ``` @@ -610,6 +611,6 @@ Kubernetes クラスターで ScalarDL Ledger テストを完了したら、す Scalar 製品の監視またはログ記録を開始する方法については、次のドキュメントで説明しています。 -* [Helm Charts の入門 (Prometheus Operator を使用したモニタリング)](getting-started-monitoring.mdx) -* [Helm Charts の入門 (Loki スタックを使用したロギング)](getting-started-logging.mdx) -* [Helm Charts の入門 (Scalar Manager)](getting-started-scalar-manager.mdx) +* [Helm Charts をはじめよう (Prometheus Operator を使用したモニタリング)](getting-started-monitoring.mdx) +* [Helm Charts をはじめよう (Loki スタックを使用したロギング)](getting-started-logging.mdx) +* [Helm Charts をはじめよう (Scalar Manager)](getting-started-scalar-manager.mdx) diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/how-to-deploy-scalar-admin-for-kubernetes.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/how-to-deploy-scalar-admin-for-kubernetes.mdx index 735b8f92..447e0ad3 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/how-to-deploy-scalar-admin-for-kubernetes.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/how-to-deploy-scalar-admin-for-kubernetes.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Kubernetes 用に Scalar Admin をデプロイする方法 @@ -10,7 +11,7 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、Scalar Helm Chart を使用して Kubernetes に Scalar Admin をデプロイする方法について説明します。 Scalar Admin for Kubernetes のカスタム値ファイルの詳細については、[Scalar Admin for Kubernetes のカスタム値ファイルの構成](configure-custom-values-scalar-admin-for-kubernetes.mdx) を参照してください。 +このドキュメントでは、Scalar Helm Chart を使用して Kubernetes に Scalar Admin をデプロイする方法について説明します。Scalar Admin for Kubernetes のカスタム値ファイルの詳細については、[Scalar Admin for Kubernetes のカスタム値ファイルの構成](configure-custom-values-scalar-admin-for-kubernetes.mdx)を参照してください。 ## Kubernetes 用の Scalar Admin をデプロイする diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/how-to-deploy-scalar-products.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/how-to-deploy-scalar-products.mdx index 433df160..a3f1a9d3 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/how-to-deploy-scalar-products.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/how-to-deploy-scalar-products.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Scalar Helm Chart を使用して Scalar 製品をデプロイする @@ -10,15 +11,15 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、Scalar Helm Chart を使用して Scalar 製品をデプロイする方法について説明します。 minikube クラスターを使用してローカル環境で Scalar 製品をテストする場合は、次のスタート ガイドを参照してください。 +このドキュメントでは、Scalar Helm Chart を使用して Scalar 製品をデプロイする方法について説明します。minikube クラスターを使用してローカル環境で Scalar 製品をテストする場合は、次のスタートガイドを参照してください。 -* [Scalar Helm Charts の入門](getting-started-scalar-helm-charts.mdx) +* [Scalar Helm Charts をはじめよう](getting-started-scalar-helm-charts.mdx) ## 前提条件 ### Helm コマンドをインストールする -Scalar Helm Charts を使用するには、helm コマンドをインストールする必要があります。 [Helm ドキュメント](https://helm.sh/docs/intro/install/)に従って helm コマンドをインストールしてください。 +Scalar Helm Charts を使用するには、helm コマンドをインストールする必要があります。[Helm ドキュメント](https://helm.sh/docs/intro/install/)に従って helm コマンドをインストールしてください。 ### Scalar Helm Charts リポジトリを追加する @@ -31,7 +32,7 @@ helm repo update scalar-labs ### Kubernetes クラスターを準備する -Scalar 製品を展開するには、Kubernetes クラスターを準備する必要があります。 運用環境で EKS (Amazon Elastic Kubernetes Service) または AKS (Azure Kubernetes Service) を使用している場合。 詳細については、次のドキュメントを参照してください。 +Scalar 製品を展開するには、Kubernetes クラスターを準備する必要があります。運用環境で EKS (Amazon Elastic Kubernetes Service) または AKS (Azure Kubernetes Service) を使用している場合。詳細については、次のドキュメントを参照してください。 - [Scalar 製品用の Amazon EKS クラスターを作成するためのガイドライン](../scalar-kubernetes/CreateEKSClusterForScalarProducts.mdx) - [Scalar 製品用の AKS クラスターを作成するためのガイドライン](../scalar-kubernetes/CreateAKSClusterForScalarProducts.mdx) @@ -40,21 +41,21 @@ Scalar 製品を展開するには、Kubernetes クラスターを準備する ### データベースの準備 (ScalarDB、ScalarDL Ledger、ScalarDL Auditor) -ScalarDB/ScalarDLのバックエンドストレージとしてデータベースを用意する必要があります。 ScalarDB/ScalarDL がサポートするデータベースは次のドキュメントで確認できます。 +ScalarDB/ScalarDLのバックエンドストレージとしてデータベースを用意する必要があります。ScalarDB/ScalarDL がサポートするデータベースは次のドキュメントで確認できます。 * [ScalarDB がサポートするデータベース](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) ### カスタム値ファイルを準備する -環境に基づいてカスタム値ファイルを準備する必要があります。 カスタム値ファイルの作成方法の詳細については、次のドキュメントを参照してください。 +環境に基づいてカスタム値ファイルを準備する必要があります。カスタム値ファイルの作成方法の詳細については、次のドキュメントを参照してください。 * [Scalar Helm Charts のカスタム値ファイルを構成する](configure-custom-values-file.mdx) ### コンテナイメージを取得する -特に商用ライセンス製品を使用する場合は、Scalar 製品のコンテナ イメージを取得する必要があります。 Scalar 製品のコンテナ リポジトリの詳細については、[Scalar 製品のコンテナ イメージを取得する方法](../scalar-kubernetes/HowToGetContainerImages.mdx) を参照してください。 +特に商用ライセンス製品を使用する場合は、Scalar 製品のコンテナイメージを取得する必要があります。Scalar 製品のコンテナリポジトリの詳細については、[Scalar 製品のコンテナイメージを取得する方法](../scalar-kubernetes/HowToGetContainerImages.mdx)を参照してください。 -PostgreSQL で ScalarDB Analytics などの OSS 製品を使用する場合は、パブリック コンテナ リポジトリからコンテナ イメージを取得できます。 +ScalarDB Analytics with PostgreSQL などの OSS 製品を使用する場合は、パブリックコンテナリポジトリからコンテナイメージを取得できます。 ## Scalar 製品をデプロイする diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/how-to-deploy-scalardb-analytics-postgresql.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/how-to-deploy-scalardb-analytics-postgresql.mdx index 12d0e680..ca4cd7ad 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/how-to-deploy-scalardb-analytics-postgresql.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/how-to-deploy-scalardb-analytics-postgresql.mdx @@ -1,6 +1,7 @@ --- tags: - Community +displayed_sidebar: docsJapanese --- # ScalarDB Analytics with PostgreSQL の導入方法 @@ -9,11 +10,11 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、Scalar Helm Chart を使用して ScalarDB Analytics with PostgreSQL をデプロイする方法について説明します。 ScalarDB Analytics with PostgreSQL のカスタム値ファイルの詳細については、[ScalarDB Analytics with PostgreSQL のカスタム値ファイルの構成](configure-custom-values-scalardb-analytics-postgresql.mdx) を参照してください。 +このドキュメントでは、Scalar Helm Chart を使用して ScalarDB Analytics with PostgreSQL をデプロイする方法について説明します。ScalarDB Analytics with PostgreSQL のカスタム値ファイルの詳細については、[ScalarDB Analytics with PostgreSQL のカスタム値ファイルの構成](configure-custom-values-scalardb-analytics-postgresql.mdx)を参照してください。 ## シークレットリソースを準備する -`ScalarDB Analytics with PostgreSQL` をデプロイする前に、キー `superuser-password` を使用して、PostgreSQL のスーパーユーザー パスワードを含むシークレット リソース `scalardb-analytics-postgresql-superuser-password` を作成する必要があります。 Scalar Helm Chart は、この秘密リソースをマウントし、`POSTGRES_PASSWORD` 環境変数を `superuser-password` キーの値に設定します。 +`ScalarDB Analytics with PostgreSQL` をデプロイする前に、キー `superuser-password` を使用して、PostgreSQL のスーパーユーザーパスワードを含むシークレットリソース `scalardb-analytics-postgresql-superuser-password` を作成する必要があります。Scalar Helm Chart は、このシークレットリソースをマウントし、`POSTGRES_PASSWORD` 環境変数を `superuser-password` キーの値に設定します。 ```console kubectl create secret generic scalardb-analytics-postgresql-superuser-password --from-literal=superuser-password= -n diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/how-to-deploy-scalardb-cluster.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/how-to-deploy-scalardb-cluster.mdx index bfb0a74c..6a40c39c 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/how-to-deploy-scalardb-cluster.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/how-to-deploy-scalardb-cluster.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # ScalarDB Cluster のデプロイする方法 @@ -10,7 +11,7 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、Scalar Helm Chart を使用して ScalarDB Cluster をデプロイする方法について説明します。 ScalarDB Cluster のカスタム値ファイルの詳細については、[ScalarDB Cluster のカスタム値ファイルの構成](configure-custom-values-scalardb-cluster.mdx) を参照してください。 +このドキュメントでは、Scalar Helm Chart を使用して ScalarDB Cluster をデプロイする方法について説明します。ScalarDB Cluster のカスタム値ファイルの詳細については、[ScalarDB Cluster のカスタム値ファイルの構成](configure-custom-values-scalardb-cluster.mdx)を参照してください。 ## ScalarDB Cluster をデプロイする @@ -30,15 +31,15 @@ helm upgrade scalar-labs/scalardb-cluster -n -f / -n ``` -## `direct-kubernetes` モードを使用してクライアント アプリケーションを Kubernetes にデプロイします +## `direct-kubernetes` モードを使用してクライアントアプリケーションを Kubernetes にデプロイします ScalarDB Cluster を `direct-kubernetes` モードで使用する場合は、次のことを行う必要があります。 -1. アプリケーション ポッドを ScalarDB Cluster と同じ Kubernetes クラスターにデプロイします。 -2. 3 つの Kubernetes リソース (`Role`、`RoleBinding`、`ServiceAccount`) を作成します。 -3. アプリケーション ポッドに `ServiceAccount` をマウントします。 +1. アプリケーションポッドを ScalarDB Cluster と同じ Kubernetes クラスターにデプロイします。 +2. 3つの Kubernetes リソース (`Role`、`RoleBinding`、`ServiceAccount`) を作成します。 +3. アプリケーションポッドに `ServiceAccount` をマウントします。 -このメソッドが必要なのは、`direct-kubernetes` モードの ScalarDB Cluster クライアント ライブラリがアプリケーション ポッド内から Kubernetes API を実行して、ScalarDB Cluster ポッドに関する情報を取得するためです。 +このメソッドが必要なのは、`direct-kubernetes` モードの ScalarDB Cluster クライアントライブラリがアプリケーションポッド内から Kubernetes API を実行して、ScalarDB Cluster ポッドに関する情報を取得するためです。 * Role ```yaml diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/how-to-deploy-scalardb-graphql.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/how-to-deploy-scalardb-graphql.mdx index 8f613748..0443480e 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/how-to-deploy-scalardb-graphql.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/how-to-deploy-scalardb-graphql.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # [非推奨] ScalarDB GraphQL をデプロイする方法 @@ -12,23 +13,23 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; :::note -ScalarDB GraphQL サーバーは非推奨になりました。 代わりに [ScalarDB Cluster](how-to-deploy-scalardb-cluster.mdx) を使用してください。 +ScalarDB GraphQL サーバーは非推奨になりました。代わりに [ScalarDB Cluster](how-to-deploy-scalardb-cluster.mdx) を使用してください。 ::: -このドキュメントでは、Scalar Helm Chart を使用して ScalarDB GraphQL をデプロイする方法について説明します。 カスタム値ファイルを準備する必要があります。 ScalarDB GraphQL のカスタム値ファイルの詳細については、次のドキュメントを参照してください。 +このドキュメントでは、Scalar Helm Chart を使用して ScalarDB GraphQL をデプロイする方法について説明します。カスタム値ファイルを準備する必要があります。ScalarDB GraphQL のカスタム値ファイルの詳細については、次のドキュメントを参照してください。 * [[非推奨] ScalarDB GraphQL のカスタム値ファイルを構成する](configure-custom-values-scalardb-graphql.mdx) ## ScalarDB Server のデプロイ (推奨オプション) -ScalarDB GraphQL をデプロイする場合は、次のように ScalarDB GraphQL とバックエンド データベースの間に ScalarDB Server をデプロイすることをお勧めします。 +ScalarDB GraphQL をデプロイする場合は、次のように ScalarDB GraphQL とバックエンドデータベースの間に ScalarDB Server をデプロイすることをお勧めします。 ``` [クライアント] ---> [ScalarDB GraphQL] ---> [ScalarDB Server] ---> [バックエンドデータベース] ``` -ScalarDB GraphQLをデプロイする前に、ドキュメント [ScalarDB Server をデプロイする方法](how-to-deploy-scalardb.mdx) に従ってScalarDB Serverをデプロイしてください。 +ScalarDB GraphQLをデプロイする前に、ドキュメント [ScalarDB Server をデプロイする方法](how-to-deploy-scalardb.mdx)に従ってScalarDB Serverをデプロイしてください。 ## ScalarDB GraphQL をデプロイする diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/how-to-deploy-scalardb.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/how-to-deploy-scalardb.mdx index 0c4eb676..79371b5d 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/how-to-deploy-scalardb.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/how-to-deploy-scalardb.mdx @@ -3,6 +3,7 @@ tags: - Enterprise Standard - Enterprise Premium - Deprecated +displayed_sidebar: docsJapanese --- # [非推奨] ScalarDB Server をデプロイする方法 @@ -13,11 +14,11 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; :::note -ScalarDB Server は非推奨になりました。 代わりに [ScalarDB Cluster](how-to-deploy-scalardb-cluster.mdx) を使用してください。 +ScalarDB Server は非推奨になりました。代わりに [ScalarDB Cluster](how-to-deploy-scalardb-cluster.mdx) を使用してください。 ::: -このドキュメントでは、Scalar Helm Chart を使用して ScalarDB Server をデプロイする方法について説明します。 カスタム値ファイルを準備する必要があります。 ScalarDB Server のカスタム値ファイルの詳細については、次のドキュメントを参照してください。 +このドキュメントでは、Scalar Helm Chart を使用して ScalarDB Server をデプロイする方法について説明します。カスタム値ファイルを準備する必要があります。ScalarDB Server のカスタム値ファイルの詳細については、次のドキュメントを参照してください。 * [[非推奨] ScalarDB Server のカスタム値ファイルを構成する](configure-custom-values-scalardb.mdx) diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/how-to-deploy-scalardl-auditor.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/how-to-deploy-scalardl-auditor.mdx index 74852ba2..7727ab26 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/how-to-deploy-scalardl-auditor.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/how-to-deploy-scalardl-auditor.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsJapanese --- # ScalarDL Auditor のデプロイする方法 @@ -7,20 +8,20 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、Scalar Helm Chart を使用して ScalarDL Auditor をデプロイする方法について説明します。 カスタム値ファイルを準備する必要があります。 ScalarDL Auditor および ScalarDL Schema Loader のカスタム値ファイルの詳細については、次のドキュメントを参照してください。 +このドキュメントでは、Scalar Helm Chart を使用して ScalarDL Auditor をデプロイする方法について説明します。カスタム値ファイルを準備する必要があります。ScalarDL Auditor および ScalarDL Schema Loader のカスタム値ファイルの詳細については、次のドキュメントを参照してください。 * [ScalarDL Auditor のカスタム値ファイルを構成する](configure-custom-values-scalardl-auditor.mdx) * [ScalarDL Schema Loaderのカスタム値ファイルを構成する](configure-custom-values-scalardl-schema-loader.mdx) ## 秘密鍵ファイルと証明書ファイルを準備する -ScalarDL Auditor をデプロイするときは、秘密キー ファイルと証明書ファイルを ScalarDL Auditor ポッドにマウントするための Secrete リソースを作成する必要があります。 +ScalarDL Auditor をデプロイするときは、秘密鍵ファイルと証明書ファイルを ScalarDL Auditor ポッドにマウントするための Secrete リソースを作成する必要があります。 -ScalarDL ポッドにキー ファイルと証明書ファイルをマウントする方法の詳細については、[ScalarDL Helm Charts のポッドにキーファイルと証明書ファイルをマウントする](mount-files-or-volumes-on-scalar-pods.mdx#scalardl-helm-charts-のポッドにキーファイルと証明書ファイルをマウントする) を参照してください。 +ScalarDL ポッドに秘密鍵ファイルと証明書ファイルをマウントする方法の詳細については、[ScalarDL Helm Charts のポッドに秘密鍵ファイルと証明書ファイルをマウントする](mount-files-or-volumes-on-scalar-pods.mdx#scalardl-helm-charts-のポッドにキーファイルと証明書ファイルをマウントする)を参照してください。 ## ScalarDL Auditor のスキーマの作成 (ScalarDL Schema Loader のデプロイ) -ScalarDL Auditor をデプロイする前に、バックエンド データベースに ScalarDL Auditor のスキーマを作成する必要があります。 +ScalarDL Auditor をデプロイする前に、バックエンドデータベースに ScalarDL Auditor のスキーマを作成する必要があります。 ```console helm install scalar-labs/schema-loading -n -f / --version diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/how-to-deploy-scalardl-ledger.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/how-to-deploy-scalardl-ledger.mdx index c9267056..07897ff9 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/how-to-deploy-scalardl-ledger.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/how-to-deploy-scalardl-ledger.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsJapanese --- # ScalarDL Ledger のデプロイ方法 @@ -7,22 +8,22 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、Scalar Helm Chart を使用して ScalarDL Ledger をデプロイする方法について説明します。 カスタム値ファイルを準備する必要があります。 ScalarDL Ledger および ScalarDL Schema Loader のカスタム値ファイルの詳細については、次のドキュメントを参照してください。 +このドキュメントでは、Scalar Helm Chart を使用して ScalarDL Ledger をデプロイする方法について説明します。カスタム値ファイルを準備する必要があります。ScalarDL Ledger および ScalarDL Schema Loader のカスタム値ファイルの詳細については、次のドキュメントを参照してください。 * [ScalarDL Ledger のカスタム値ファイルを構成する](configure-custom-values-scalardl-ledger.mdx) * [ScalarDL Schema Loaderのカスタム値ファイルを構成する](configure-custom-values-scalardl-schema-loader.mdx) ## 秘密鍵ファイルを準備します (オプション / ScalarDL Auditor を使用する場合は必要です) -ScalarDL Ledger の [asset proofs](https://scalardl.scalar-labs.com/ja-jp/docs/latest/how-to-use-proof) を使用する場合は、秘密キー ファイルを ScalarDL Ledger ポッドにマウントするための Secrete リソースを作成する必要があります。 ScalarDL Auditorを使用する場合は資産証明が必要です。 +ScalarDL Ledger の [asset proofs](https://scalardl.scalar-labs.com/ja-jp/docs/latest/how-to-use-proof) を使用する場合は、秘密鍵ファイルを ScalarDL Ledger ポッドにマウントするための Secrete リソースを作成する必要があります。ScalarDL Auditor を使用する場合はアセット証明が必要です。 ScalarDL ポッドにキー/証明書ファイルをマウントする方法の詳細については、次のドキュメントを参照してください。 -* [ScalarDL Helm Charts のポッドにキーファイルと証明書ファイルをマウントする](mount-files-or-volumes-on-scalar-pods.mdx#scalardl-helm-charts-のポッドにキーファイルと証明書ファイルをマウントする) +* [ScalarDL Helm Charts のポッドに秘密鍵ファイルと証明書ファイルをマウントする](mount-files-or-volumes-on-scalar-pods.mdx#scalardl-helm-charts-のポッドに秘密鍵ファイルと証明書ファイルをマウントする) ## ScalarDL Ledger のスキーマの作成 (ScalarDL Schema Loader のデプロイ) -ScalarDL Ledger をデプロイする前に、バックエンド データベースに ScalarDL Ledger のスキーマを作成する必要があります。 +ScalarDL Ledger をデプロイする前に、バックエンドデータベースに ScalarDL Ledger のスキーマを作成する必要があります。 ```console helm install scalar-labs/schema-loading -n -f / --version diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/mount-files-or-volumes-on-scalar-pods.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/mount-files-or-volumes-on-scalar-pods.mdx index 11bd03d2..fd11df55 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/mount-files-or-volumes-on-scalar-pods.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/mount-files-or-volumes-on-scalar-pods.mdx @@ -2,15 +2,16 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Scalar 製品ポッドにファイルまたはボリュームをマウントします ScalarDB Server、ScalarDB Cluster、ScalarDB Analytics with PostgreSQL、または ScalarDL Helm Charts (ScalarDL Ledger および ScalarDL Auditor) を使用する場合、Scalar 製品ポッドに任意のファイルまたはボリュームをマウントできます。 -## ScalarDL Helm Charts のポッドにキーファイルと証明書ファイルをマウントする +## ScalarDL Helm Charts のポッドに秘密鍵ファイルと証明書ファイルをマウントする -ScalarDL Auditor を実行するには、キー ファイルと証明書ファイルをマウントする必要があります。 +ScalarDL Auditor を実行するには、秘密鍵ファイルと証明書ファイルをマウントする必要があります。 * 構成例 * ScalarDL Ledger @@ -31,9 +32,9 @@ ScalarDL Auditor を実行するには、キー ファイルと証明書ファ scalar.dl.auditor.cert_path=/keys/certificate ``` -この例では、**秘密キー** ファイルと **証明書** ファイルをコンテナ内の `/keys` ディレクトリにマウントする必要があります。 そして、`private-key` と `certificate` という名前のファイルをマウントする必要があります。 これらのファイルをマウントするには、`extraVolumes` および `extraVolumeMounts` を使用できます。 +この例では、**秘密鍵** ファイルと **証明書** ファイルをコンテナ内の `/keys` ディレクトリにマウントする必要があります。そして、`private-key` と `certificate` という名前のファイルをマウントする必要があります。これらのファイルをマウントするには、`extraVolumes` および `extraVolumeMounts` を使用できます。 -1. Kubernetes マニフェストと同じ構文を使用して、カスタム値ファイルに `extraVolumes` と `extraVolumeMounts` を設定します。 `mountPath` キーにディレクトリ名を指定する必要があります。 +1. Kubernetes マニフェストと同じ構文を使用して、カスタム値ファイルに `extraVolumes` と `extraVolumeMounts` を設定します。`mountPath` キーにディレクトリ名を指定する必要があります。 * 例 * ScalarDL Ledger ```yaml @@ -79,16 +80,16 @@ ScalarDL Auditor を実行するには、キー ファイルと証明書ファ 1. 上記のカスタム値ファイルを使用して Scalar 製品をデプロイします。 - Scalar 製品を展開した後、次のようにキー ファイルと証明書ファイルが `/keys` ディレクトリにマウントされます。 + Scalar 製品を展開した後、次のように秘密鍵ファイルと証明書ファイルが `/keys` ディレクトリにマウントされます。 * 例 * ScalarDL Ledger ```console ls -l /keys/ ``` - + 次のような結果が表示されます: - + ```console total 0 lrwxrwxrwx 1 root root 18 Jun 27 03:12 private-key -> ..data/private-key @@ -99,16 +100,16 @@ ScalarDL Auditor を実行するには、キー ファイルと証明書ファ ``` 次のような結果が表示されます: - + ```console total 0 lrwxrwxrwx 1 root root 18 Jun 27 03:16 certificate -> ..data/certificate lrwxrwxrwx 1 root root 18 Jun 27 03:16 private-key -> ..data/private-key ``` -## emptyDir をマウントしてヒープ ダンプ ファイルを取得します +## emptyDir をマウントしてヒープダンプファイルを取得します -カスタム値ファイルで次のキーを使用して、emptyDir を Scalar 製品ポッドにマウントできます。 たとえば、このボリュームを使用して、Scalar 製品のヒープ ダンプを取得できます。 +カスタム値ファイルで次のキーを使用して、emptyDir を Scalar 製品ポッドにマウントできます。たとえば、このボリュームを使用して、Scalar 製品のヒープダンプを取得できます。 * キー * `scalardb.extraVolumes` / `scalardb.extraVolumeMounts` (ScalarDB Server) diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/use-secret-for-credentials.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/use-secret-for-credentials.mdx index 8714ca07..2f62352c 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/use-secret-for-credentials.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/helm-charts/use-secret-for-credentials.mdx @@ -2,9 +2,10 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- -# Secret リソースを使用して資格情報を環境変数としてプロパティ ファイルに渡す方法 +# Secret リソースを使用して資格情報を環境変数としてプロパティファイルに渡す方法 import Tabs from '@theme/Tabs'; import TabItem from '@theme/TabItem'; @@ -12,7 +13,7 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -Kubernetes の `Secret` リソースを介して、**username** や **password** などの資格情報を環境変数として渡すことができます。 Scalar 製品の以前のバージョンの Docker イメージは、プロパティ ファイルのテンプレート化に `dockerize` コマンドを使用します。 Scalar 製品の最新バージョンの Docker イメージは、環境変数から直接値を取得します。 +Kubernetes の `Secret` リソースを介して、**username** や **password** などの資格情報を環境変数として渡すことができます。Scalar 製品の以前のバージョンの Docker イメージは、プロパティファイルのテンプレート化に `dockerize` コマンドを使用します。Scalar 製品の最新バージョンの Docker イメージは、環境変数から直接値を取得します。 注記:次の環境変数名は、Scalar Helm Chart の内部で使用されるため、カスタム値ファイルで使用できません。 ```console @@ -63,7 +64,7 @@ SCALAR_DB_CLUSTER_MEMBERSHIP_KUBERNETES_ENDPOINT_NAME ```
-

ScalarDB Server 3.8 以降 (Apache Commons Text 構文)

+

ScalarDB Server 3.8以降 (Apache Commons Text 構文)

```yaml scalardb: @@ -74,7 +75,7 @@ SCALAR_DB_CLUSTER_MEMBERSHIP_KUBERNETES_ENDPOINT_NAME ... ``` -

ScalarDB Server 3.7 以前 (Go テンプレート構文)

+

ScalarDB Server 3.7以前 (Go テンプレート構文)

```yaml scalardb: @@ -86,7 +87,7 @@ SCALAR_DB_CLUSTER_MEMBERSHIP_KUBERNETES_ENDPOINT_NAME ```
-

ScalarDL Ledger 3.8 以降 (Apache Commons Text 構文)

+

ScalarDL Ledger 3.8以降 (Apache Commons Text 構文)

```yaml ledger: @@ -97,7 +98,7 @@ SCALAR_DB_CLUSTER_MEMBERSHIP_KUBERNETES_ENDPOINT_NAME ... ``` -

ScalarDL Ledger 3.7 以前 (Go テンプレート構文)

+

ScalarDL Ledger 3.7以前 (Go テンプレート構文)

```yaml ledger: @@ -109,7 +110,7 @@ SCALAR_DB_CLUSTER_MEMBERSHIP_KUBERNETES_ENDPOINT_NAME ```
-

ScalarDL Auditor 3.8 以降 (Apache Commons Text 構文)

+

ScalarDL Auditor 3.8以降 (Apache Commons Text 構文)

```yaml auditor: @@ -120,7 +121,7 @@ SCALAR_DB_CLUSTER_MEMBERSHIP_KUBERNETES_ENDPOINT_NAME ... ``` -

ScalarDL Auditor 3.7 以前 (Go テンプレート構文)

+

ScalarDL Auditor 3.7以前 (Go テンプレート構文)

```yaml auditor: @@ -132,7 +133,7 @@ SCALAR_DB_CLUSTER_MEMBERSHIP_KUBERNETES_ENDPOINT_NAME ```
-

ScalarDL Schema Loader 3.8 以降 (Apache Commons Text 構文)

+

ScalarDL Schema Loader 3.8以降 (Apache Commons Text 構文)

```yaml schemaLoading: @@ -143,7 +144,7 @@ SCALAR_DB_CLUSTER_MEMBERSHIP_KUBERNETES_ENDPOINT_NAME ... ``` -

ScalarDL Schema Loader 3.7 以前 (Go テンプレート構文)

+

ScalarDL Schema Loader 3.7以前 (Go テンプレート構文)

```yaml schemaLoading: @@ -233,8 +234,8 @@ SCALAR_DB_CLUSTER_MEMBERSHIP_KUBERNETES_ENDPOINT_NAME scalar.db.password={{ default .Env.SCALAR_DB_PASSWORD "" }} scalar.db.storage=jdbc ``` - - * コンテナ内のプロパティ ファイル + + * コンテナ内のプロパティファイル ```properties scalar.db.contact_points=jdbc:postgresql://postgresql-scalardb.default.svc.cluster.local:5432/postgres scalar.db.username=postgres diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/AccessScalarProducts.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/AccessScalarProducts.mdx index af45a284..156edb6e 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/AccessScalarProducts.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/AccessScalarProducts.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Kubernetes クラスター環境にデプロイされた ScalarDB または ScalarDL をアプリケーションから利用できるようにする @@ -10,13 +11,13 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、Kubernetes クラスター環境にデプロイされた ScalarDB または ScalarDL をアプリケーションから利用できるようにする方法について説明します。 ScalarDB または ScalarDL をアプリケーションから利用できるようにするには、`-envoy` という名前の Kubernetes サービス リソース経由で Scalar Envoy を使用します。 `-envoy` は次のようないくつかの方法で使用できます。 +このドキュメントでは、Kubernetes クラスター環境にデプロイされた ScalarDB または ScalarDL をアプリケーションから利用できるようにする方法について説明します。ScalarDB または ScalarDL をアプリケーションから利用できるようにするには、`-envoy` という名前の Kubernetes サービスリソース経由で Scalar Envoy を使用します。`-envoy` は次のようないくつかの方法で使用できます。 * ScalarDB または ScalarDL と同じ Kubernetes クラスター内から直接。 -* Kubernetes クラスターの外部からのロード バランサー経由。 -* `kubectl port-forward` コマンドを使用して要塞サーバーから実行します (テスト目的のみ)。 +* Kubernetes クラスターの外部からのロードバランサー経由。 +* `kubectl port-forward` コマンドを使用して踏み台サーバーから実行します (テスト目的のみ)。 -リソース名 `-envoy` は Helm リリース名に基づいて決定されます。 次のコマンドを実行すると、helm リリース名を確認できます。 +リソース名 `-envoy` は Helm リリース名に基づいて決定されます。次のコマンドを実行すると、helm リリース名を確認できます。 ```console helm list -n ns-scalar @@ -55,9 +56,9 @@ scalardl-ledger-headless ClusterIP None 5 scalardl-ledger-metrics ClusterIP 10.104.216.189 8080/TCP 109s ``` -## 同じ Kubernetes クラスター内からサービス リソースを介して、ScalarDB または ScalarDL へのアプリケーション (クライアント) リクエストを直接実行します。 +## 同じ Kubernetes クラスター内からサービスリソースを介して、ScalarDB または ScalarDL へのアプリケーション (クライアント) リクエストを直接実行します。 -アプリケーション (クライアント) を ScalarDB または ScalarDL と同じ Kubernetes クラスターにデプロイする場合 (たとえば、アプリケーション [クライアント] を同じ Kubernetes クラスター内の別のノード グループまたはプールにデプロイする場合)、アプリケーションは次の方法で ScalarDB または ScalarDL にアクセスできます。 Kubernetes サービス リソースを使用します。 サービスリソース名 (FQDN) の形式は、`-envoy..svc.cluster.local` です。 +アプリケーション (クライアント) を ScalarDB または ScalarDL と同じ Kubernetes クラスターにデプロイする場合 (たとえば、アプリケーション [クライアント] を同じ Kubernetes クラスター内の別のノードグループまたはプールにデプロイする場合)、アプリケーションは次の方法で ScalarDB または ScalarDL にアクセスできます。Kubernetes サービスリソースを使用します。サービスリソース名 (FQDN) の形式は、`-envoy..svc.cluster.local` です。 以下は、`ns-scalar` 名前空間での ScalarDB および ScalarDL のデプロイメントの例です。 @@ -74,7 +75,7 @@ scalardl-ledger-metrics ClusterIP 10.104.216.189 8 scalardl-auditor-envoy.ns-scalar.svc.cluster.local ``` -Kubernetes サービス リソースを使用する場合、アプリケーション (クライアント) のプロパティ ファイルに上記の FQDN を次のように設定する必要があります。 +Kubernetes サービスリソースを使用する場合、アプリケーション (クライアント) のプロパティファイルに上記の FQDN を次のように設定する必要があります。 * **ScalarDB Server のクライアントプロパティファイル** ```properties @@ -89,13 +90,13 @@ Kubernetes サービス リソースを使用する場合、アプリケーシ scalar.dl.ledger.server.port=50051 scalar.dl.ledger.server.privileged_port=50052 ``` -* **ScalarDL Auditor モードが有効になっている ScalarDL Ledger のクライアント プロパティ ファイル** +* **ScalarDL Auditor モードが有効になっている ScalarDL Ledger のクライアントプロパティファイル** ```properties # Ledger scalar.dl.client.server.host=-envoy..svc.cluster.local scalar.dl.ledger.server.port=50051 scalar.dl.ledger.server.privileged_port=50052 - + # Auditor scalar.dl.client.auditor.enabled=true scalar.dl.client.auditor.host=-envoy..svc.cluster.local @@ -103,15 +104,15 @@ Kubernetes サービス リソースを使用する場合、アプリケーシ scalar.dl.auditor.server.privileged_port=40052 ``` -## Kubernetes クラスターの外部からロード バランサー経由で ScalarDB または ScalarDL へのアプリケーション (クライアント) リクエストを実行します +## Kubernetes クラスターの外部からロードバランサー経由で ScalarDB または ScalarDL へのアプリケーション (クライアント) リクエストを実行します -ScalarDB または ScalarDL の Kubernetes クラスターの外部の環境にアプリケーション (クライアント) をデプロイする場合 (たとえば、アプリケーション [クライアント] を別の Kubernetes クラスター、コンテナー プラットフォーム、またはサーバーにデプロイする場合)、アプリケーションは ScalarDB または ScalarDL にアクセスできます。 各クラウドサービスが提供するロードバランサーを利用します。 +ScalarDB または ScalarDL の Kubernetes クラスターの外部の環境にアプリケーション (クライアント) をデプロイする場合 (たとえば、アプリケーション [クライアント] を別の Kubernetes クラスター、コンテナープラットフォーム、またはサーバーにデプロイする場合)、アプリケーションは ScalarDB または ScalarDL にアクセスできます。各クラウドサービスが提供するロードバランサーを利用します。 -カスタム値ファイルで `envoy.service.type` を `LoadBalancer` に設定することで、ロード バランサーを作成できます。 カスタム値ファイルを構成した後、ロード バランサーを使用して、Kubernetes サービス リソースを通じて Scalar Envoy を使用できるようになります。 注釈を使用してロード バランサーの構成を設定することもできます。 +カスタム値ファイルで `envoy.service.type` を `LoadBalancer` に設定することで、ロードバランサーを作成できます。カスタム値ファイルを構成した後、ロードバランサーを使用して、Kubernetes サービスリソースを通じて Scalar Envoy を使用できるようになります。注釈を使用してロードバランサーの構成を設定することもできます。 カスタム値ファイルの設定方法の詳細については、[サービス設定](../helm-charts/configure-custom-values-envoy.mdx#サービス構成)を参照してください。 -ロードバランサを使用する場合、アプリケーション(クライアント)のプロパティファイルにロードバランサのFQDNまたはIPアドレスを以下のように設定する必要があります。 +ロードバランサを使用する場合、アプリケーション (クライアント) のプロパティファイルにロードバランサのFQDNまたはIPアドレスを以下のように設定する必要があります。 * **ScalarDB Server のクライアントプロパティファイル** ```properties @@ -126,13 +127,13 @@ ScalarDB または ScalarDL の Kubernetes クラスターの外部の環境に scalar.dl.ledger.server.port=50051 scalar.dl.ledger.server.privileged_port=50052 ``` -* **ScalarDL Auditor モードが有効になっている ScalarDL Ledger のクライアント プロパティ ファイル** +* **ScalarDL Auditor モードが有効になっている ScalarDL Ledger のクライアントプロパティファイル** ```properties # Ledger scalar.dl.client.server.host= scalar.dl.ledger.server.port=50051 scalar.dl.ledger.server.privileged_port=50052 - + # Auditor scalar.dl.client.auditor.enabled=true scalar.dl.client.auditor.host= @@ -140,7 +141,7 @@ ScalarDB または ScalarDL の Kubernetes クラスターの外部の環境に scalar.dl.auditor.server.privileged_port=40052 ``` -ロード バランサーの具体的な実装とアクセス方法は、Kubernetes クラスターに依存します。 マネージド Kubernetes クラスターを使用している場合は、クラウド サービス プロバイダーに基づいて次の公式ドキュメントを参照してください。 +ロードバランサーの具体的な実装とアクセス方法は、Kubernetes クラスターに依存します。マネージド Kubernetes クラスターを使用している場合は、クラウドサービスプロバイダーに基づいて次の公式ドキュメントを参照してください。 * **Amazon Elastic Kubernetes Service (EKS)** * [Network load balancing on Amazon EKS](https://docs.aws.amazon.com/eks/latest/userguide/network-load-balancing.html) @@ -148,12 +149,12 @@ ScalarDB または ScalarDL の Kubernetes クラスターの外部の環境に * [Use a public standard load balancer in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/load-balancer-standard) * [Use an internal load balancer with Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/internal-lb) -## 要塞サーバーから ScalarDB または ScalarDL へのクライアント リクエストを実行します (テスト目的のみ。運用環境では推奨されません) +## 踏み台サーバーから ScalarDB または ScalarDL へのクライアントリクエストを実行します (テスト目的のみ。運用環境では推奨されません) -`kubectl port-forward` コマンドを実行すると、要塞サーバーから ScalarDB または ScalarDL へのクライアント リクエストを実行できます。 ただし、ScalarDL Auditor モード環境を作成する場合、2 つの Kubernetes クラスターにアクセスするには、1 つの要塞サーバーから異なる kubeconfig ファイルを使用して 2 つの `kubectl port-forward` コマンドを実行する必要があります。 +`kubectl port-forward` コマンドを実行すると、踏み台サーバーから ScalarDB または ScalarDL へのクライアントリクエストを実行できます。ただし、ScalarDL Auditor モード環境を作成する場合、2つの Kubernetes クラスターにアクセスするには、1つの踏み台サーバーから異なる kubeconfig ファイルを使用して2つの `kubectl port-forward` コマンドを実行する必要があります。 -1. **(ScalarDL Auditor モードのみ)** ScalarDL Ledger の要塞サーバーで、ScalarDL Auditor の Kubernetes クラスターにアクセスするために既存の kubeconfig ファイルを構成するか、新しい kubeconfig ファイルを追加します。 管理対象の各 Kubernetes クラスターの kubeconfig ファイルを構成する方法の詳細については、[kubeconfig の構成](CreateBastionServer.mdx#kubeconfig-の構成)を参照してください。 -2. 要塞サーバーから各サービスへのポート転送を構成します。 +1. **(ScalarDL Auditor モードのみ)** ScalarDL Ledger の踏み台サーバーで、ScalarDL Auditor の Kubernetes クラスターにアクセスするために既存の kubeconfig ファイルを構成するか、新しい kubeconfig ファイルを追加します。管理対象の各 Kubernetes クラスターの kubeconfig ファイルを構成する方法の詳細については、[kubeconfig の構成](CreateBastionServer.mdx#kubeconfig-の構成)を参照してください。 +2. 踏み台サーバーから各サービスへのポート転送を構成します。 * **ScalarDB Server** ```console kubectl port-forward -n svc/-envoy 60051:60051 @@ -168,7 +169,7 @@ ScalarDB または ScalarDL の Kubernetes クラスターの外部の環境に kubectl --context port-forward -n svc/-envoy 40051:40051 kubectl --context port-forward -n svc/-envoy 40052:40052 ``` -3. `localhost` 経由で ScalarDB または ScalarDL にアクセスするようにプロパティ ファイルを設定します。 +3. `localhost` 経由で ScalarDB または ScalarDL にアクセスするようにプロパティファイルを設定します。 * **ScalarDB Server のクライアントプロパティファイル** ```properties scalar.db.contact_points=localhost @@ -182,13 +183,13 @@ ScalarDB または ScalarDL の Kubernetes クラスターの外部の環境に scalar.dl.ledger.server.port=50051 scalar.dl.ledger.server.privileged_port=50052 ``` - * **ScalarDL Auditor モードが有効になっている ScalarDL Ledger のクライアント プロパティ ファイル** + * **ScalarDL Auditor モードが有効になっている ScalarDL Ledger のクライアントプロパティファイル** ```properties # Ledger scalar.dl.client.server.host=localhost scalar.dl.ledger.server.port=50051 scalar.dl.ledger.server.privileged_port=50052 - + # Auditor scalar.dl.client.auditor.enabled=true scalar.dl.client.auditor.host=localhost diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/AwsMarketplaceGuide.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/AwsMarketplaceGuide.mdx index 90693760..202e0727 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/AwsMarketplaceGuide.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/AwsMarketplaceGuide.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # AWS Marketplace を通じて Scalar 製品をインストールする方法 @@ -18,7 +19,7 @@ Scalar 製品 (ScalarDB、ScalarDL、およびそれらのツール) は、AWS M - 一部の Scalar 製品は商用ライセンスで利用可能であり、AWS Marketplace ではそれらの製品を従量課金制 (PAYG) 料金で提供しています。従量課金制料金を使用する場合、AWS は使用量に基づいて Scalar 製品のライセンス料を請求します。 - 以前は、AWS Marketplace でライセンス持ち込み (BYOL) オプションが提供されていました。ただし、このオプションは廃止され、削除されたため、AWS Marketplace ではサポートされなくなりました。 -- BYOL オプションは、AWS Marketplace ではなく、次のパブリックコンテナリポジトリで提供されています。ライセンスキーをお持ちでない場合は、[お問い合わせ](https://www.scalar-labs.com/contact-jp) ください。 +- BYOL オプションは、AWS Marketplace ではなく、次のパブリックコンテナリポジトリで提供されています。ライセンスキーをお持ちでない場合は、[お問い合わせ](https://www.scalar-labs.com/contact-jp)ください。 - [ScalarDB Cluster Enterprise Standard](https://github.com/orgs/scalar-labs/packages/container/package/scalardb-cluster-node-byol-standard) - [ScalarDB Cluster Enterprise Premium](https://github.com/orgs/scalar-labs/packages/container/package/scalardb-cluster-node-byol-premium) - [ScalarDL Ledger](https://github.com/orgs/scalar-labs/packages/container/package/scalardl-ledger-byol) @@ -69,11 +70,11 @@ Scalar 製品 (ScalarDB、ScalarDL、およびそれらのツール) は、AWS M すでにサインインしている場合、この手順は自動的にスキップされます。 1. **利用規約**を読み、**利用規約に同意する**を選択します。 - 時間がかかります。 完了すると、**発効日**列に現在の日付が表示されます。 + 時間がかかります。完了すると、**発効日**列に現在の日付が表示されます。 また、AWS コンソールの [Manage subscriptions](https://us-east-1.console.aws.amazon.com/marketplace/home#/subscriptions) ページでも製品を確認できます。 ## Scalar Helm Charts を使用して AWS Marketplace から EKS (Amazon Elastic Kubernetes Service) にコンテナをデプロイする -AWS Marketplace で Scalar 製品をサブスクライブすると、AWS Marketplace のプライベート コンテナ レジストリ ([ECR](https://aws.amazon.com/ecr/)) から Scalar 製品のコンテナ イメージをプルできます。 このセクションでは、プライベート コンテナー レジストリから [EKS](https://aws.amazon.com/eks/) クラスターに従量課金制の価格で Scalar 製品をデプロイする方法について説明します。 +AWS Marketplace で Scalar 製品をサブスクライブすると、AWS Marketplace のプライベートコンテナレジストリ ([ECR](https://aws.amazon.com/ecr/)) から Scalar 製品のコンテナイメージをプルできます。このセクションでは、プライベートコンテナーレジストリから [EKS](https://aws.amazon.com/eks/) クラスターに従量課金制の価格で Scalar 製品をデプロイする方法について説明します。 1. OIDC プロバイダーを作成します。 @@ -101,7 +102,7 @@ AWS Marketplace で Scalar 製品をサブスクライブすると、AWS Marketp ``` 1. インストールする Scalar 製品の Helm Chart のカスタム値ファイルを更新します。 - カスタム値ファイルの `[].image.repository` の値として、AWS Marketplace のプライベート コンテナ レジストリ (ECR) を指定する必要があります。 また、前の手順で作成したサービス アカウント名を `[].serviceAccount.serviceAccountName` の値として指定し、 `[].serviceAccount.automountServiceAccountToken` を `true` に設定する必要があります。使用している製品に応じて、次の例を参照してください。 + カスタム値ファイルの `[].image.repository` の値として、AWS Marketplace のプライベートコンテナレジストリ (ECR) を指定する必要があります。また、前の手順で作成したサービスアカウント名を `[].serviceAccount.serviceAccountName` の値として指定し、 `[].serviceAccount.automountServiceAccountToken` を `true` に設定する必要があります。使用している製品に応じて、次の例を参照してください。 @@ -169,7 +170,7 @@ AWS Marketplace で Scalar 製品をサブスクライブすると、AWS Marketp

ScalarDL Schema Loader for Ledger

- `schema-loader-ledger-custom-values.yaml` ファイル内の `[].image.repository` 構成を更新する必要はありません。ScalarDL Schema Loader のコンテナイメージは、[パブリックコンテナリポジトリ](https://github.com/orgs/scalar-labs/packages/container/package/scalardl-schema-loader) で提供されています。 + `schema-loader-ledger-custom-values.yaml` ファイル内の `[].image.repository` 構成を更新する必要はありません。ScalarDL Schema Loader のコンテナイメージは、[パブリックコンテナリポジトリ](https://github.com/orgs/scalar-labs/packages/container/package/scalardl-schema-loader)で提供されています。 :::note @@ -286,10 +287,10 @@ AWS Marketplace で Scalar 製品をサブスクライブすると、AWS Marketp ## **[非推奨] [BYOL]** Scalar Helm Chart を使用して AWS Marketplace から EKS (Amazon Elastic Kubernetes Service) にコンテナをデプロイする -AWS Marketplace で Scalar 製品をサブスクライブすると、AWS Marketplace のプライベート コンテナ レジストリ ([ECR](https://aws.amazon.com/ecr/)) から Scalar 製品のコンテナ イメージをプルできます。 このセクションでは、プライベート コンテナー レジストリから [EKS](https://aws.amazon.com/eks/) クラスターに BYOL オプションを使用して Scalar 製品をデプロイする方法について説明します。 +AWS Marketplace で Scalar 製品をサブスクライブすると、AWS Marketplace のプライベートコンテナレジストリ ([ECR](https://aws.amazon.com/ecr/)) から Scalar 製品のコンテナイメージをプルできます。このセクションでは、プライベートコンテナーレジストリから [EKS](https://aws.amazon.com/eks/) クラスターに BYOL オプションを使用して Scalar 製品をデプロイする方法について説明します。 1. インストールする Scalar 製品の Helm Chart のカスタム値ファイルを更新します。 - AWS Marketplace のプライベート コンテナ レジストリ (ECR) をカスタム値ファイルの `[].image.repository` の値として指定する必要があります。使用している製品に応じて、次の例を参照してください。 + AWS Marketplace のプライベートコンテナレジストリ (ECR) をカスタム値ファイルの `[].image.repository` の値として指定する必要があります。使用している製品に応じて、次の例を参照してください。 @@ -416,7 +417,7 @@ AWS Marketplace で Scalar 製品をサブスクライブすると、AWS Marketp ``` 1. インストールする Scalar 製品の Helm Chart のカスタム値ファイルを更新します。 - AWS Marketplace のプライベート コンテナ レジストリ (ECR) をカスタム値ファイルの `[].image.repository` の値として指定する必要があります。 + AWS Marketplace のプライベートコンテナレジストリ (ECR) をカスタム値ファイルの `[].image.repository` の値として指定する必要があります。 また、`[].imagePullSecrets` の値として `reg-ecr-mp-secrets` を指定する必要があります。使用している製品に応じて、次の例を参照してください。 @@ -457,7 +458,7 @@ AWS Marketplace で Scalar 製品をサブスクライブすると、AWS Marketp

ScalarDL Schema Loader for Ledger

- `schema-loader-ledger-custom-values.yaml` ファイル内の `[].image.repository` 構成を更新する必要はありません。ScalarDL Schema Loader のコンテナイメージは、[パブリックコンテナリポジトリ](https://github.com/orgs/scalar-labs/packages/container/package/scalardl-schema-loader) で提供されています。 + `schema-loader-ledger-custom-values.yaml` ファイル内の `[].image.repository` 構成を更新する必要はありません。ScalarDL Schema Loader のコンテナイメージは、[パブリックコンテナリポジトリ](https://github.com/orgs/scalar-labs/packages/container/package/scalardl-schema-loader)で提供されています。 :::note @@ -487,7 +488,7 @@ AWS Marketplace で Scalar 製品をサブスクライブすると、AWS Marketp

ScalarDL Schema Loader for Auditor

- `schema-loader-auditor-custom-values.yaml` ファイル内の `[].image.repository` 構成を更新する必要はありません。ScalarDL Schema Loader のコンテナイメージは、[パブリックコンテナリポジトリ](https://github.com/orgs/scalar-labs/packages/container/package/scalardl-schema-loader) で提供されています。 + `schema-loader-auditor-custom-values.yaml` ファイル内の `[].image.repository` 構成を更新する必要はありません。ScalarDL Schema Loader のコンテナイメージは、[パブリックコンテナリポジトリ](https://github.com/orgs/scalar-labs/packages/container/package/scalardl-schema-loader)で提供されています。 :::note diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/AzureMarketplaceGuide.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/AzureMarketplaceGuide.mdx index 31efb024..e9d69bd5 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/AzureMarketplaceGuide.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/AzureMarketplaceGuide.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Azure Marketplace を通じて Scalar 製品をインストールする方法 @@ -14,13 +15,13 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; :::warning -現在、Scalar 製品は Azure Marketplace では入手できません。 Scalar 製品のコンテナ イメージを取得するその他の方法については、[Scalar 製品のコンテナイメージを取得する方法](./HowToGetContainerImages.mdx) を参照してください。 +現在、Scalar 製品は Azure Marketplace では入手できません。Scalar 製品のコンテナイメージを取得するその他の方法については、[Scalar 製品のコンテナイメージを取得する方法](./HowToGetContainerImages.mdx)を参照してください。 ::: -Scalar 製品 (ScalarDB、ScalarDL、およびそれらのツール) は、コンテナー オファーとして Azure Marketplace で提供されます。 このガイドでは、Azure Marketplace を通じて Scalar 製品をインストールする方法について説明します。 +Scalar 製品 (ScalarDB、ScalarDL、およびそれらのツール) は、コンテナーオファーとして Azure Marketplace で提供されます。このガイドでは、Azure Marketplace を通じて Scalar 製品をインストールする方法について説明します。 -一部の Scalar 製品は商用ライセンスに基づいてライセンスされており、Azure Marketplace では BYOL (Bring Your Own License) として提供されていることに注意してください。 適切なライセンスを持っていることを確認してください。 +一部の Scalar 製品は商用ライセンスに基づいてライセンスされており、Azure Marketplace では BYOL (Bring Your Own License) として提供されていることに注意してください。適切なライセンスを持っていることを確認してください。 ## Microsoft Azure Marketplace から Scalar 製品を入手する @@ -37,55 +38,55 @@ Scalar 製品 (ScalarDB、ScalarDL、およびそれらのツール) は、コ 1. **Get It Now** を選択します。 -1. 職場の電子メール アドレスを使用して Azure Marketplace にサインインします。 +1. 職場の電子メールアドレスを使用して Azure Marketplace にサインインします。 Microsoft Azureのアカウントとして使用している仕事用メールアドレスをご利用ください。 すでにサインインしている場合、この手順は自動的にスキップされます。 1. あなたの情報を入力してください。 **会社**は必須ではありませんが、入力してください。 -1. 必要な **ソフトウェア プラン** をプルダウンから選択します。 - **ソフトウェア プラン** とは、コンテナ イメージとライセンスの組み合わせを意味します。 ご使用の *ソフトウェア プラン* を選択してください。 +1. 必要な **ソフトウェアプラン** をプルダウンから選択します。 + **ソフトウェアプラン** とは、コンテナイメージとライセンスの組み合わせを意味します。ご使用の *ソフトウェアプラン* を選択してください。 1. [**続行**] を選択します。 [**続行**] を選択すると、自動的に Azure ポータルに移動します。 -1. プライベート コンテナー レジストリ (Azure Container Registry) を作成します。 - 画面上のコマンドに従って、プライベート コンテナー レジストリを作成してください。 - Scalar 製品のコンテナ イメージは、プライベート コンテナ レジストリにコピーされます。 +1. プライベートコンテナーレジストリ (Azure Container Registry) を作成します。 + 画面上のコマンドに従って、プライベートコンテナーレジストリを作成してください。 + Scalar 製品のコンテナイメージは、プライベートコンテナレジストリにコピーされます。 1. 必要に応じてこれらの手順を繰り返します。 - Kubernetes 上で Scalar 製品を実行するには複数のコンテナー イメージが必要ですが、Azure Marketplace は一度に 1 つのコンテナー イメージのみをコピーします。 したがって、必要に応じて複数のソフトウェア プランを購読する (繰り返し購読操作) 必要があります。 + Kubernetes 上で Scalar 製品を実行するには複数のコンテナーイメージが必要ですが、Azure Marketplace は一度に1つのコンテナーイメージのみをコピーします。したがって、必要に応じて複数のソフトウェアプランを購読する (繰り返し購読操作) 必要があります。 - 必要なコンテナイメージは以下となります。コンテナイメージの詳細を表示するには、Scalar 製品を選択します。 - ScalarDB Cluster (BYOL) - - [非推奨] ScalarDB Server のデフォルト (2vCPU, 4GiB Memory) + - [非推奨] ScalarDB Server のデフォルト (2vCPU、 4GiB Memory) - [非推奨] ScalarDB GraphQL Server (optional) - [非推奨] ScalarDB SQL Server (optional) - - ScalarDL Ledger のデフォルト (2vCPU, 4GiB Memory) - - ScalarDL Auditor のデフォルト (2vCPU, 4GiB Memory) - - **ScalarDL Auditor** はオプションです。 **ScalarDL Auditor** を使用している場合は、サブスクライブしてください。 + - ScalarDL Ledger のデフォルト (2vCPU、 4GiB Memory) + - ScalarDL Auditor のデフォルト (2vCPU、 4GiB Memory) + - **ScalarDL Auditor** はオプションです。**ScalarDL Auditor** を使用している場合は、サブスクライブしてください。 - ScalarDL Schema Loader -これで、プライベート コンテナー レジストリから Scalar 製品のコンテナー イメージをプルできるようになりました。 +これで、プライベートコンテナーレジストリから Scalar 製品のコンテナーイメージをプルできるようになりました。 Azure Container Registry の詳細については、 [Azure Container Registry documentation](https://docs.microsoft.com/en-us/azure/container-registry/) を参照してください。 -## Scalar Helm Charts を使用して、プライベート コンテナー レジストリから AKS (Azure Kubernetes Service) にコンテナーをデプロイします。 +## Scalar Helm Charts を使用して、プライベートコンテナーレジストリから AKS (Azure Kubernetes Service) にコンテナーをデプロイします。 -1. AKS クラスターを作成するときに、プライベート コンテナー レジストリ (Azure Container Registry) を指定します。 +1. AKS クラスターを作成するときに、プライベートコンテナーレジストリ (Azure Container Registry) を指定します。 * GUI (Azure ポータル) - [**統合**] タブの **Azure Container Registry** パラメーターで、プライベート コンテナー レジストリを指定してください。 + [**統合**] タブの **Azure Container Registry** パラメーターで、プライベートコンテナーレジストリを指定してください。 * CLI ([az aks create](https://docs.microsoft.com/en-us/cli/azure/aks?view=azure-cli-latest#az-aks-create) コマンド) - `--attach-acr` フラグにプライベート コンテナー レジストリの名前を指定してください。 また、`--attach-acr` フラグを指定した [az aks update](https://docs.microsoft.com/en-us/cli/azure/aks?view=azure-cli-latest#az-aks-update) コマンドを使用して、既存の AKS クラスターの Azure Container Registry 統合を構成できます。 詳細は [Azure Official Document](https://docs.microsoft.com/en-us/azure/aks/cluster-container-registry-integration) をご参照ください。 + `--attach-acr` フラグにプライベートコンテナーレジストリの名前を指定してください。また、`--attach-acr` フラグを指定した [az aks update](https://docs.microsoft.com/en-us/cli/azure/aks?view=azure-cli-latest#az-aks-update) コマンドを使用して、既存の AKS クラスターの Azure Container Registry 統合を構成できます。詳細は [Azure Official Document](https://docs.microsoft.com/en-us/azure/aks/cluster-container-registry-integration) をご参照ください。 1. インストールする Scalar 製品の Helm Chart のカスタム値ファイルを更新します。 - プライベート コンテナ レジストリをカスタム値ファイルの `[].image.repository` の値として指定する必要があります。使用している製品に応じて、次の例を参照してください。 + プライベートコンテナレジストリをカスタム値ファイルの `[].image.repository` の値として指定する必要があります。使用している製品に応じて、次の例を参照してください。 @@ -159,7 +160,7 @@ Azure Container Registry の詳細については、 [Azure Container Registry d -## Scalar Helm Chart を使用して、プライベート コンテナー レジストリから AKS (Azure Kubernetes Service) 以外の Kubernetes にコンテナーをデプロイします。 +## Scalar Helm Chart を使用して、プライベートコンテナーレジストリから AKS (Azure Kubernetes Service) 以外の Kubernetes にコンテナーをデプロイします。 1. [Azure Official Document (How to install the Azure CLI)](https://docs.microsoft.com/en-us/cli/azure/install-azure-cli) に従って`az`コマンドをインストールします。 @@ -168,10 +169,10 @@ Azure Container Registry の詳細については、 [Azure Container Registry d az login ``` -1. [Azure Official Document (Azure Container Registry authentication with service principals)](https://docs.microsoft.com/en-us/azure/container-registry/container-registry-auth-service-principal) に従って、プライベート コンテナー レジストリへの認証用の **service principal** を作成します。 +1. [Azure Official Document (Azure Container Registry authentication with service principals)](https://docs.microsoft.com/en-us/azure/container-registry/container-registry-auth-service-principal) に従って、プライベートコンテナーレジストリへの認証用の **service principal** を作成します。 次のステップでは、**Service principal ID** と **Service principal パスワード**を使用します。 -1. プライベート コンテナー レジストリからコンテナー イメージをプルするための `reg-acr-secrets` シークレット リソースを作成します。 +1. プライベートコンテナーレジストリからコンテナーイメージをプルするための `reg-acr-secrets` シークレットリソースを作成します。 ```console kubectl create secret docker-registry reg-acr-secrets \ --docker-server= \ @@ -180,7 +181,7 @@ Azure Container Registry の詳細については、 [Azure Container Registry d ``` 1. インストールする Scalar 製品の Helm Chart のカスタム値ファイルを更新します。 - プライベート コンテナ レジストリをカスタム値ファイルの `[].image.repository` の値として指定する必要があります。 + プライベートコンテナレジストリをカスタム値ファイルの `[].image.repository` の値として指定する必要があります。 また、`[].imagePullSecrets` の値として `reg-acr-secrets` を指定する必要があります。使用している製品に応じて、次の例を参照してください。 @@ -234,5 +235,5 @@ Azure Container Registry の詳細については、 [Azure Container Registry d 1. 上記のカスタム値ファイルを含む Helm Chart を使用して、Scalar 製品をデプロイします。 - * 例 - このドキュメントの **Scalar Helm Charts を使用して、プライベート コンテナー レジストリから AKS (Azure Kubernetes Service) にコンテナーをデプロイします** セクションを参照してください。 + * 例 + このドキュメントの **Scalar Helm Charts を使用して、プライベートコンテナーレジストリから AKS (Azure Kubernetes Service) にコンテナーをデプロイします** セクションを参照してください。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/BackupNoSQL.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/BackupNoSQL.mdx index f16f5a38..afc68ea3 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/BackupNoSQL.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/BackupNoSQL.mdx @@ -2,40 +2,41 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Kubernetes 環境で NoSQL データベースをバックアップする -このガイドでは、ScalarDB または ScalarDL が Kubernetes 環境で使用するマネージド データベースのトランザクション的に一貫したバックアップを作成する方法について説明します。 NoSQL データベースまたは複数のデータベースを使用する場合は、トランザクションの一貫性のあるバックアップを作成するために ScalarDB または ScalarDL を**一時停止する必要がある**ことに注意してください。 +このガイドでは、ScalarDB または ScalarDL が Kubernetes 環境で使用するマネージドデータベースのトランザクション的に一貫したバックアップを作成する方法について説明します。NoSQL データベースまたは複数のデータベースを使用する場合は、トランザクション的に一貫したバックアップを作成するために ScalarDB または ScalarDL を**一時停止する必要がある**ことに注意してください。 ScalarDB がデータベースをバックアップする方法の詳細については、[A Guide on How to Backup and Restore Databases Used Through ScalarDB](https://scalardb.scalar-labs.com/docs/latest/backup-restore/) を参照してください。 -このガイドでは、ポイントインタイム リカバリ (PITR) または同等の機能を使用していることを前提としています。 そのため、復旧のためには継続的な取引がない期間を設ける必要があります。 その後、PITR を使用してデータをその特定の期間に復元できます。 進行中のトランザクションがない期間を作成せずにデータをある時点に復元すると、復元されたデータはトランザクション的に不整合となり、ScalarDB または ScalarDL がデータを適切に処理できなくなる可能性があります。 +このガイドでは、ポイントインタイムリカバリ (PITR) または同等の機能を使用していることを前提としています。そのため、復旧のためには継続的な取引がない期間を設ける必要があります。その後、PITR を使用してデータをその特定の期間に復元できます。進行中のトランザクションがない期間を作成せずにデータをある時点に復元すると、復元されたデータはトランザクション的に不整合となり、ScalarDB または ScalarDL がデータを適切に処理できなくなる可能性があります。 ## データを復元する期間を作成し、バックアップを実行します -1. バックアップ操作を開始する前に、`kubectl get pod` コマンドを実行して、次の 4 つの点を確認します。 +1. バックアップ操作を開始する前に、`kubectl get pod` コマンドを実行して、次の4つの点を確認します。 * **ScalarDB または ScalarDL ポッドの数。** ポッドの数を書き留めて、その数をバックアップの実行後のポッドの数と比較できるようにします。 * **`NAME` 列の ScalarDB または ScalarDL ポッド名。** バックアップの実行後にそれらの名前とポッド名を比較できるように、ポッド名を書き留めます。 - * **ScalarDB または ScalarDL ポッドのステータスは、`STATUS` 列で `Running` になっています。** バックアップを続行する前に、ポッドが実行中であることを確認してください。 次のステップではポッドを一時停止する必要があります。 + * **ScalarDB または ScalarDL ポッドのステータスは、`STATUS` 列で `Running` になっています。** バックアップを続行する前に、ポッドが実行中であることを確認してください。次のステップではポッドを一時停止する必要があります。 * ** `RESTARTS` 列の各ポッドの再起動回数。** バックアップ実行後の再起動回数と比較できるように、各ポッドの再起動回数を書き留めます。 -2. `scalar-admin` を使用して、ScalarDB または ScalarDL ポッドを一時停止します。 ポッドを一時停止する方法の詳細については、このガイドの [`scalar-admin` の使用の詳細](BackupNoSQL.mdx#scalar-admin-の使用の詳細) セクションを参照してください。 -3. `pause completed` 時間を書き留めます。 PITR 機能を使用してデータを復元する場合は、その時間を参照する必要があります。 -4. バックアップ機能を使用して、各データベースをバックアップします。 自動バックアップと PITR 機能を有効にしている場合、管理されたデータベースは自動的にバックアップを実行します。 クライアント クロックとデータベース クロック間のクロック スキューの問題を回避するのに十分な長い期間を作成できるように、約 10 秒待つ必要があることに注意してください。 この 10 秒の期間は、PITR 機能を使用してデータを復元できる正確な期間です。 -5. `scalar-admin` を使用して、ScalarDB または ScalarDL ポッドの一時停止を解除します。 ポッドの一時停止を解除する方法の詳細については、このガイドの [`scalar-admin` の使用の詳細](BackupNoSQL.mdx#scalar-admin-の使用の詳細) の使用の詳細」セクションを参照してください。 -6. `unpause started` 時刻を確認します。 PITR 機能を使用してデータを復元できる正確な期間を確認するには、`unpause started` 時間を確認する必要があります。 -7. バックアップの実行後にポッドのステータスを確認します。 バックアップ操作完了後、`kubectl get pod` コマンドを使用して以下の4点を確認する必要があります。 +2. `scalar-admin` を使用して、ScalarDB または ScalarDL ポッドを一時停止します。ポッドを一時停止する方法の詳細については、このガイドの [`scalar-admin` の使用の詳細](BackupNoSQL.mdx#scalar-admin-の使用の詳細)セクションを参照してください。 +3. `pause completed` 時間を書き留めます。PITR 機能を使用してデータを復元する場合は、その時間を参照する必要があります。 +4. バックアップ機能を使用して、各データベースをバックアップします。自動バックアップと PITR 機能を有効にしている場合、管理されたデータベースは自動的にバックアップを実行します。クライアントクロックとデータベースクロック間のクロックスキューの問題を回避するのに十分な長い期間を作成できるように、約10秒待つ必要があることに注意してください。この10秒の期間は、PITR 機能を使用してデータを復元できる正確な期間です。 +5. `scalar-admin` を使用して、ScalarDB または ScalarDL ポッドの一時停止を解除します。ポッドの一時停止を解除する方法の詳細については、このガイドの [`scalar-admin` の使用の詳細](BackupNoSQL.mdx#scalar-admin-の使用の詳細)の使用の詳細」セクションを参照してください。 +6. `unpause started` 時刻を確認します。PITR 機能を使用してデータを復元できる正確な期間を確認するには、`unpause started` 時間を確認する必要があります。 +7. バックアップの実行後にポッドのステータスを確認します。バックアップ操作完了後、`kubectl get pod` コマンドを使用して以下の4点を確認する必要があります。 * **ScalarDB または ScalarDL ポッドの数。** この数が、バックアップを実行する前に書き留めたポッドの数と一致することを確認します。 * **`NAME` 列の ScalarDB または ScalarDL ポッド名。** 名前がバックアップを実行する前に書き留めたポッド名と一致することを確認します。 * **ScalarDB または ScalarDL ポッドのステータスは、`STATUS` 列で `Running` になっています。** * **`RESTARTS` 列の各ポッドの再起動回数。** カウントが、バックアップを実行する前に書き留めた再起動回数と一致することを確認します。 - **2 つの値のいずれかが異なる場合は、バックアップ操作を最初から再試行する必要があります。** 値が異なる理由は、バックアップの実行中に追加または再起動されたポッドが原因である可能性があります。 そのような場合、それらのポッドは `unpause` 状態で実行されます。 ポッドが `unpause` 状態にあると、バックアップ データのトランザクションの不整合が発生します。 -8. **(Amazon DynamoDB のみ)** DynamoDB の PITR 機能を使用する場合、この機能は PITR を使用して別の名前テーブルでデータを復元するため、バックアップを作成するために追加の手順を実行する必要があります。 データを復元できる正確な期間を作成した後の追加手順の詳細については、[Kubernetes 環境でのデータベースの復元](RestoreDatabase.mdx#amazon-dynamodb) を参照してください。 + **2つの値のいずれかが異なる場合は、バックアップ操作を最初から再試行する必要があります。** 値が異なる理由は、バックアップの実行中に追加または再起動されたポッドが原因である可能性があります。そのような場合、それらのポッドは `unpause` 状態で実行されます。ポッドが `unpause` 状態にあると、バックアップデータのトランザクションの不整合が発生します。 +8. **(Amazon DynamoDB のみ)** DynamoDB の PITR 機能を使用する場合、この機能は PITR を使用して別の名前テーブルでデータを復元するため、バックアップを作成するために追加の手順を実行する必要があります。データを復元できる正確な期間を作成した後の追加手順の詳細については、[Kubernetes 環境でのデータベースの復元](RestoreDatabase.mdx#amazon-dynamodb) を参照してください。 ## 複数のデータベースをバックアップする -[Multi-storage Transactions](https://scalardb.scalar-labs.com/docs/latest/multi-storage-transactions/) または [Two-phase Commit Transactions](https://scalardb.scalar-labs.com/docs/latest/two-phase-commit-transactions/) 機能が使用するデータベースが 2 つ以上ある場合は、ScalarDB または ScalarDL のすべてのインスタンスを一時停止し、データベース内に進行中のトランザクションが存在しない同じ期間を作成する必要があります。 +[Multi-storage Transactions](https://scalardb.scalar-labs.com/docs/latest/multi-storage-transactions/) または [Two-phase Commit Transactions](https://scalardb.scalar-labs.com/docs/latest/two-phase-commit-transactions/) 機能が使用するデータベースが2つ以上ある場合は、ScalarDB または ScalarDL のすべてのインスタンスを一時停止し、データベース内に進行中のトランザクションが存在しない同じ期間を作成する必要があります。 複数のデータベース間の整合性を確保するには、PITR 機能を使用してデータベースを同じ時点に復元する必要があります。 @@ -43,9 +44,9 @@ ScalarDB がデータベースをバックアップする方法の詳細につ ### Kubernetes リソース名を確認する -SRV サービス URL を `-s (--srv-service-url)` フラグに指定する必要があります。 Kubernetes 環境では、SRV サービス URL の形式は `_my-port-name._my-port-protocol.my-svc.my-namespace.svc.cluster.local` です。 +SRV サービス URL を `-s (--srv-service-url)` フラグに指定する必要があります。Kubernetes 環境では、SRV サービス URL の形式は `_my-port-name._my-port-protocol.my-svc.my-namespace.svc.cluster.local` です。 -Scalar Helm Chart を使用して ScalarDB または ScalarDL をデプロイする場合、`my-svc` および `my-namespace` は環境によって異なる場合があります。 ヘッドレス サービス名を `my-svc` として指定し、名前空間を `my-namespace` として指定する必要があります。 +Scalar Helm Chart を使用して ScalarDB または ScalarDL をデプロイする場合、`my-svc` および `my-namespace` は環境によって異なる場合があります。ヘッドレスサービス名を `my-svc` として指定し、名前空間を `my-namespace` として指定する必要があります。 * 例 * ScalarDB Server @@ -61,7 +62,7 @@ Scalar Helm Chart を使用して ScalarDB または ScalarDL をデプロイす _scalardl-auditor-admin._tcp.-headless..svc.cluster.local ``` -Helm リリース名によって、ヘッドレス サービス名 `-headless` が決まります。 次のコマンドを実行すると、helm リリース名を確認できます。 +Helm リリース名によって、ヘッドレスサービス名 `-headless` が決まります。次のコマンドを実行すると、helm リリース名を確認できます。 ```console helm list -n ns-scalar @@ -76,7 +77,7 @@ scalardl-auditor ns-scalar 1 2023-02-09 19:32:03.0089 scalardl-ledger ns-scalar 1 2023-02-09 19:31:53.459548418 +0900 JST deployed scalardl-4.5.1 3.7.1 ``` -次のコマンドを実行すると、ヘッドレス サービス名 `-headless` を確認することもできます。 +次のコマンドを実行すると、ヘッドレスサービス名 `-headless` を確認することもできます。 ```console kubectl get service -n ns-scalar @@ -138,7 +139,7 @@ Kubernetes 環境の ScalarDB または ScalarDL ポッドに一時停止解除 ### `pause completed` 時刻と `unpause started` 時刻を確認する -`scalar-admin` ポッドは、`pause completed` 時刻と `unpause started` 時刻を標準出力に出力します。 `kubectl logs` コマンドを実行すると、それらの時間を確認することもできます。 +`scalar-admin` ポッドは、`pause completed` 時刻と `unpause started` 時刻を標準出力に出力します。`kubectl logs` コマンドを実行すると、それらの時間を確認することもできます。 ```console kubectl logs scalar-admin-pause diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/BackupRDB.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/BackupRDB.mdx index ed8398a7..cb8586f8 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/BackupRDB.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/BackupRDB.mdx @@ -2,19 +2,20 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Kubernetes 環境で RDB をバックアップする -このガイドでは、ScalarDB または ScalarDL が Kubernetes 環境で使用する単一のリレーショナル データベース (RDB) のバックアップを作成する方法について説明します。 このガイドは、クラウド サービス プロバイダーの管理されたデータベースを使用していることを前提としていることに注意してください。 +このガイドでは、ScalarDB または ScalarDL が Kubernetes 環境で使用する単一のリレーショナルデータベース (RDB) のバックアップを作成する方法について説明します。このガイドは、クラウドサービスプロバイダーの管理されたデータベースを使用していることを前提としていることに注意してください。 -[Multi-storage Transactions](https://scalardb.scalar-labs.com/docs/latest/multi-storage-transactions/) または [Two-phase Commit Transactions](https://scalardb.scalar-labs.com/docs/latest/two-phase-commit-transactions/) 機能が使用する RDB が 2 つ以上ある場合は、代わりに [Back up a NoSQL database in a Kubernetes environment](BackupNoSQL.mdx) の手順に従う必要があります。 +[Multi-storage Transactions](https://scalardb.scalar-labs.com/docs/latest/multi-storage-transactions/) または [Two-phase Commit Transactions](https://scalardb.scalar-labs.com/docs/latest/two-phase-commit-transactions/) 機能が使用する RDB が2つ以上ある場合は、代わりに [Kubernetes 環境で NoSQL データベースをバックアップする](BackupNoSQL.mdx)の手順に従う必要があります。 ## バックアップを実行する -バックアップを実行するには、管理されたデータベースで使用できる自動バックアップ機能を有効にする必要があります。 この機能を有効にすると、追加のバックアップ操作を実行する必要がなくなります。 各管理データベースのバックアップ構成の詳細については、次のガイドを参照してください。 +バックアップを実行するには、管理されたデータベースで使用できる自動バックアップ機能を有効にする必要があります。この機能を有効にすると、追加のバックアップ操作を実行する必要がなくなります。各管理データベースのバックアップ構成の詳細については、次のガイドを参照してください。 * [AWS での ScalarDB/ScalarDL デプロイメント用のデータベースのセットアップ](SetupDatabaseForAWS.mdx) * [Azure 上で ScalarDB/ScalarDL デプロイメント用のデータベースをセットアップする](SetupDatabaseForAzure.mdx) -マネージド RDB はトランザクションの観点からバックアップ データの一貫性を保つため、マネージド RDB のポイント イン タイム リカバリ (PITR) 機能を使用して、バックアップ データを任意の時点に復元できます。 +マネージド RDB はトランザクションの観点からバックアップデータの一貫性を保つため、マネージド RDB のポイントインタイムリカバリ (PITR) 機能を使用して、バックアップデータを任意の時点に復元できます。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/BackupRestoreGuide.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/BackupRestoreGuide.mdx index 1fd1a5e3..bc70bfc1 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/BackupRestoreGuide.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/BackupRestoreGuide.mdx @@ -2,17 +2,18 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Kubernetes 環境で ScalarDB または ScalarDL データをバックアップおよび復元する -このガイドでは、Kubernetes 環境で ScalarDB または ScalarDL データをバックアップおよび復元する方法について説明します。 このガイドは、クラウド サービス プロバイダーのマネージド データベースを ScalarDB または ScalarDL のバックエンド データベースとして使用していることを前提としていることに注意してください。 以下は、このガイドで使用が想定されている管理データベースのリストです。 +このガイドでは、Kubernetes 環境で ScalarDB または ScalarDL データをバックアップおよび復元する方法について説明します。このガイドは、クラウドサービスプロバイダーのマネージドデータベースを ScalarDB または ScalarDL のバックエンドデータベースとして使用していることを前提としていることに注意してください。以下は、このガイドで使用が想定されている管理データベースのリストです。 * NoSQL: トランザクションをサポートしません * Amazon DynamoDB * Azure Cosmos DB for NoSQL -* リレーショナルデータベース(RDB):トランザクションをサポート - * Amazon RDS +* リレーショナルデータベース (RDB):トランザクションをサポート + * Amazon RDS * MySQL * Oracle * PostgreSQL @@ -34,14 +35,14 @@ ScalarDB で使用されるデータベースをトランザクション的に #### NoSQL または複数のデータベース -NoSQL データベースを使用している場合、または [Multi-storage Transactions](https://scalardb.scalar-labs.com/docs/latest/multi-storage-transactions/) または [Two-phase Commit Transactions](https://scalardb.scalar-labs.com/docs/latest/two-phase-commit-transactions/) 機能が使用するデータベースが 2 つ以上ある場合、詳細については [Kubernetes 環境で NoSQL データベースをバックアップする](BackupNoSQL.mdx) を参照してください。 バックアップの実行方法について。 +NoSQL データベースを使用している場合、または [Multi-storage Transactions](https://scalardb.scalar-labs.com/docs/latest/multi-storage-transactions/) または [Two-phase Commit Transactions](https://scalardb.scalar-labs.com/docs/latest/two-phase-commit-transactions/) 機能が使用するデータベースが2つ以上ある場合、詳細については [Kubernetes 環境で NoSQL データベースをバックアップする](BackupNoSQL.mdx)を参照してください。バックアップの実行方法について。 #### 単一 RDB -単一のRDBを使用している場合のバックアップ方法については、[Kubernetes環境でRDBをバックアップする](BackupRDB.mdx) を参照してください。 +単一のRDBを使用している場合のバックアップ方法については、[Kubernetes環境でRDBをバックアップする](BackupRDB.mdx)を参照してください。 -[Multi-storage Transactions](https://scalardb.scalar-labs.com/docs/latest/multi-storage-transactions/) または [Two-phase Commit Transactions](https://scalardb.scalar-labs.com/docs/latest/two-phase-commit-transactions/) 機能が使用する RDB が 2 つ以上ある場合は、代わりに [Kubernetes 環境で NoSQL データベースをバックアップする](BackupNoSQL.mdx) の手順に従う必要があります。 +[Multi-storage Transactions](https://scalardb.scalar-labs.com/docs/latest/multi-storage-transactions/) または [Two-phase Commit Transactions](https://scalardb.scalar-labs.com/docs/latest/two-phase-commit-transactions/) 機能が使用する RDB が2つ以上ある場合は、代わりに [Kubernetes 環境で NoSQL データベースをバックアップする](BackupNoSQL.mdx)の手順に従う必要があります。 ## データベースを復元する -管理されたデータベースからデータを復元する方法の詳細については、[Kubernetes 環境でのデータベースの復元](RestoreDatabase.mdx) を参照してください。 +管理されたデータベースからデータを復元する方法の詳細については、[Kubernetes 環境でのデータベースの復元](RestoreDatabase.mdx)を参照してください。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateAKSClusterForScalarDB.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateAKSClusterForScalarDB.mdx index 137eb72e..1ee3c5e8 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateAKSClusterForScalarDB.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateAKSClusterForScalarDB.mdx @@ -3,6 +3,7 @@ tags: - Enterprise Standard - Enterprise Premium - Deprecated +displayed_sidebar: docsJapanese --- # ScalarDB Server 用の AKS クラスターを作成するためのガイドライン @@ -11,11 +12,11 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、ScalarDB Server デプロイ用の Azure Kubernetes Service (AKS) クラスターを作成するための要件と推奨事項について説明します。 ScalarDB Server を AKS クラスターにデプロイする方法の詳細については、[AKS に ScalarDB Server をデプロイする](ManualDeploymentGuideScalarDBServerOnAKS.mdx) を参照してください。 +このドキュメントでは、ScalarDB Server デプロイ用の Azure Kubernetes Service (AKS) クラスターを作成するための要件と推奨事項について説明します。ScalarDB Server を AKS クラスターにデプロイする方法の詳細については、[AKS に ScalarDB Server をデプロイする](ManualDeploymentGuideScalarDBServerOnAKS.mdx)を参照してください。 ## あなたが始める前に -次の要件、推奨事項、およびプロジェクトの要件に基づいて AKS クラスターを作成する必要があります。 AKS クラスターの作成方法の詳細については、環境で使用しているツールに基づいて、次の Microsoft 公式ドキュメントを参照してください。 +次の要件、推奨事項、およびプロジェクトの要件に基づいて AKS クラスターを作成する必要があります。AKS クラスターの作成方法の詳細については、環境で使用しているツールに基づいて、次の Microsoft 公式ドキュメントを参照してください。 * [Azure CLI](https://learn.microsoft.com/en-us/azure/aks/learn/quick-kubernetes-deploy-cli) * [PowerShell](https://learn.microsoft.com/en-us/azure/aks/learn/quick-kubernetes-deploy-powershell) @@ -25,16 +26,16 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; ScalarDB Server を展開するときは、次のことを行う必要があります。 -* [サポートされている Kubernetes バージョン](https://scalardb.scalar-labs.com/docs/latest/requirements/#kubernetes) を使用して AKS クラスターを作成します。 +* [サポートされている Kubernetes バージョン](https://scalardb.scalar-labs.com/docs/latest/requirements/#kubernetes)を使用して AKS クラスターを作成します。 * Kubernetes のバージョンとプロジェクトの要件に基づいて AKS クラスターを構成します。 ## 推奨事項 (オプション) -以下に、ScalarDB Server を展開するための推奨事項をいくつか示します。 これらの推奨事項は必須ではないため、ニーズに基づいてこれらの推奨事項を適用するかどうかを選択できます。 +以下に、ScalarDB Server を展開するための推奨事項をいくつか示します。これらの推奨事項は必須ではないため、ニーズに基づいてこれらの推奨事項を適用するかどうかを選択できます。 -### 少なくとも 3 つのワーカーノードと 3 つのポッドを作成します +### 少なくとも3つのワーカーノードと3つのポッドを作成します -AKS クラスターの高可用性を確保するには、少なくとも 3 つのワーカーノードを使用し、ワーカーノード全体に少なくとも 3 つのポッドをデプロイする必要があります。 3 つのポッドをワーカーノードに分散させるための `podAntiAffinity` の [サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardb-custom-values.yaml) を参照できます。 +AKS クラスターの高可用性を確保するには、少なくとも3つのワーカーノードを使用し、ワーカーノード全体に少なくとも3つのポッドをデプロイする必要があります。3つのポッドをワーカーノードに分散させるための `podAntiAffinity` の [サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardb-custom-values.yaml)を参照できます。 :::note @@ -42,44 +43,44 @@ AKS クラスターの高可用性を確保するには、少なくとも 3 つ ::: -### ScalarDB Server ノード プールのワーカーノードには 4vCPU / 8GB メモリ ノードを使用します。 +### ScalarDB Server ノードプールのワーカーノードには 4vCPU / 8GB メモリノードを使用します。 -商用ライセンスの観点から、ScalarDB Server を実行する 1 つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。 ScalarDB Server ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 +商用ライセンスの観点から、ScalarDB Server を実行する1つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。ScalarDB Server ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 * ScalarDB Server ポッド (2vCPU / 4GB) * Envoy プロキシ -* アプリケーション ポッド (同じワーカーノード上でアプリケーションのポッドを実行することを選択した場合) +* アプリケーションポッド (同じワーカーノード上でアプリケーションのポッドを実行することを選択した場合) * 監視コンポーネント (`kube-prometheus-stack` などの監視コンポーネントをデプロイする場合) * Kubernetes コンポーネント -これを念頭に置き、[少なくとも 3 つのワーカーノードと 3 つのポッドを作成する](#create-at-least-three-worker-nodes-and-three-pods) で説明されているように、少なくとも 4vCPU / 8 GB のメモリ リソースを持つワーカーノードを使用し、可用性のために少なくとも 3 つのワーカーノードを使用する必要があります。 +これを念頭に置き、[少なくとも3つのワーカーノードと3つのポッドを作成する](#create-at-least-three-worker-nodes-and-three-pods)で説明されているように、少なくとも 4vCPU / 8 GB のメモリリソースを持つワーカーノードを使用し、可用性のために少なくとも3つのワーカーノードを使用する必要があります。 -ただし、運用環境では、ノードあたり少なくとも 4vCPU / 8GB のメモリ リソースを備えた 3 つのノードが最小条件となります。 また、システムのワークロードに応じて、AKS クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDB Server ポッド、アプリケーションのポッドなど) も考慮する必要があります。 また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 +ただし、運用環境では、ノードあたり少なくとも 4vCPU / 8GB のメモリリソースを備えた3つのノードが最小条件となります。また、システムのワークロードに応じて、AKS クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDB Server ポッド、アプリケーションのポッドなど) も考慮する必要があります。また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 -### ScalarDB Server ポッドのノード プールを作成する +### ScalarDB Server ポッドのノードプールを作成する -AKS は、既定でシステム ポッド (AKS を実行し続けるために使用される) に優先される **agentpool** という名前のシステム ノード プールを 1 つ作成します。 ScalarDB Server ポッド用に **user** モードで別のノード プールを作成し、この追加のノード プールに ScalarDB Server ポッドをデプロイすることをお勧めします。 +AKS は、既定でシステムポッド (AKS を実行し続けるために使用される) に優先される **agentpool** という名前のシステムノードプールを1つ作成します。ScalarDB Server ポッド用に **user** モードで別のノードプールを作成し、この追加のノードプールに ScalarDB Server ポッドをデプロイすることをお勧めします。 -### AKS でクラスター オートスケーラーを構成する +### AKS でクラスターオートスケーラーを構成する -[Horizontal Pod Autoscaler](https://learn.microsoft.com/en-us/azure/aks/concepts-scale#horizontal-pod-autoscaler) を使用して ScalarDB Server ポッドを自動的にスケーリングする場合は、AKS でもクラスター オートスケーラーを構成する必要があります。 詳細については、Microsoft の公式ドキュメント [Cluster autoscaler](https://learn.microsoft.com/en-us/azure/aks/concepts-scale#cluster-autoscaler) を参照してください。 +[Horizontal Pod Autoscaler](https://learn.microsoft.com/en-us/azure/aks/concepts-scale#horizontal-pod-autoscaler) を使用して ScalarDB Server ポッドを自動的にスケーリングする場合は、AKS でもクラスターオートスケーラーを構成する必要があります。詳細については、Microsoft の公式ドキュメント [Cluster autoscaler](https://learn.microsoft.com/en-us/azure/aks/concepts-scale#cluster-autoscaler) を参照してください。 -さらに、クラスター オートスケーラーを構成する場合は、AKS がスケーリング後にネットワークの問題なく動作できるように、十分な数の IP が存在することを確認するために、AKS の仮想ネットワーク (VNet) にサブネットを作成する必要があります。 必要な IP の数は、ネットワーク プラグインによって異なります。 必要な IP 数の詳細については、以下を参照してください。 +さらに、クラスターオートスケーラーを構成する場合は、AKS がスケーリング後にネットワークの問題なく動作できるように、十分な数の IP が存在することを確認するために、AKS の仮想ネットワーク (VNet) にサブネットを作成する必要があります。必要な IP の数は、ネットワークプラグインによって異なります。必要な IP 数の詳細については、以下を参照してください。 * [Use kubenet networking with your own IP address ranges in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/configure-kubenet) * [Configure Azure CNI networking in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/configure-azure-cni) -### プライベート ネットワーク上に AKS クラスターを作成する +### プライベートネットワーク上に AKS クラスターを作成する -ScalarDB Server はインターネット アクセス経由でユーザーにサービスを直接提供しないため、プライベート ネットワーク (VNet のプライベート サブネット) 上に AKS クラスターを作成する必要があります。 アプリケーションからプライベート ネットワーク経由で ScalarDB Server にアクセスすることをお勧めします。 +ScalarDB Server はインターネットアクセス経由でユーザーにサービスを直接提供しないため、プライベートネットワーク (VNet のプライベートサブネット) 上に AKS クラスターを作成する必要があります。アプリケーションからプライベートネットワーク経由で ScalarDB Server にアクセスすることをお勧めします。 ### 必要に応じて、Azure CNI を使用して AKS クラスターを作成します。 -AKS の既定のネットワーク プラグインは [kubenet](https://learn.microsoft.com/en-us/azure/aks/configure-kubenet) です。 要件が kubenet と一致しない場合は、[Azure Container Networking Interface (CNI)](https://learn.microsoft.com/en-us/azure/aks/configure-azure-cni) を使用する必要があります。 +AKS の既定のネットワークプラグインは [kubenet](https://learn.microsoft.com/en-us/azure/aks/configure-kubenet) です。要件が kubenet と一致しない場合は、[Azure Container Networking Interface (CNI)](https://learn.microsoft.com/en-us/azure/aks/configure-azure-cni) を使用する必要があります。 -たとえば、1 つの AKS クラスターに複数の ScalarDB Server 環境をデプロイし (マルチテナントの ScalarDB Server をデプロイするなど)、[Kubernetes NetworkPolicies](https://kubernetes.io/docs/concepts/services-networking/network-policies/) を使用して各テナント間の接続を制御したい場合、kubenet は Calico Network のみをサポートします。 [Azure support team does not support](https://learn.microsoft.com/en-us/azure/aks/use-network-policies#differences-between-azure-network-policy-manager-and-calico-network-policy-and-their-capabilities) ポリシー。 Calico ネットワーク ポリシーは、Calico コミュニティまたは追加の有料サポートを通じてのみサポートされることに注意してください。 +たとえば、1つの AKS クラスターに複数の ScalarDB Server 環境をデプロイし (マルチテナントの ScalarDB Server をデプロイするなど)、[Kubernetes NetworkPolicies](https://kubernetes.io/docs/concepts/services-networking/network-policies/) を使用して各テナント間の接続を制御したい場合、kubenet は Calico Network のみをサポートします。[Azure support team does not support](https://learn.microsoft.com/en-us/azure/aks/use-network-policies#differences-between-azure-network-policy-manager-and-calico-network-policy-and-their-capabilities) ポリシー。Calico ネットワークポリシーは、Calico コミュニティまたは追加の有料サポートを通じてのみサポートされることに注意してください。 -ただし、Azure サポート チームとエンジニアリング チームは Azure CNI をサポートします。 したがって、Kubernetes NetworkPolicies を使用して Azure サポート チームからサポートを受けたい場合は、Azure CNI を使用する必要があります。 kubenet と Azure CNI の違いの詳細については、次の Microsoft 公式ドキュメントを参照してください。 +ただし、Azure サポートチームとエンジニアリングチームは Azure CNI をサポートします。したがって、Kubernetes NetworkPolicies を使用して Azure サポートチームからサポートを受けたい場合は、Azure CNI を使用する必要があります。kubenet と Azure CNI の違いの詳細については、次の Microsoft 公式ドキュメントを参照してください。 * [Network concepts for applications in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/concepts-network) * [Use kubenet networking with your own IP address ranges in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/configure-kubenet) @@ -87,7 +88,7 @@ AKS の既定のネットワーク プラグインは [kubenet](https://learn.mi ### 要件に基づいていくつかのセキュリティ機能を使用して接続を制限する -ScalarDB Server では未使用の接続を制限する必要があります。 未使用の接続を制限するには、[network security groups](https://learn.microsoft.com/en-us/azure/virtual-network/network-security-groups-overview) など、Azure のいくつかのセキュリティ機能を使用できます。 +ScalarDB Server では未使用の接続を制限する必要があります。未使用の接続を制限するには、[network security groups](https://learn.microsoft.com/en-us/azure/virtual-network/network-security-groups-overview) など、Azure のいくつかのセキュリティ機能を使用できます。 ScalarDB Server がデフォルトで使用する接続 (ポート) は次のとおりです。 @@ -100,7 +101,7 @@ ScalarDB Server がデフォルトで使用する接続 (ポート) は次のと :::note -- 構成ファイル (`database.properties`) で ScalarDB Server のデフォルトのリスニング ポートを変更する場合は、構成したポートを使用して接続を許可する必要があります。 -- AKS 自体が使用する接続も許可する必要があります。 AKS トラフィック要件の詳細については、[Control egress traffic using Azure Firewall in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/limit-egress-traffic) を参照してください。 +- 構成ファイル (`database.properties`) で ScalarDB Server のデフォルトのリスニングポートを変更する場合は、構成したポートを使用して接続を許可する必要があります。 +- AKS 自体が使用する接続も許可する必要があります。AKS トラフィック要件の詳細については、[Control egress traffic using Azure Firewall in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/limit-egress-traffic) を参照してください。 ::: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateAKSClusterForScalarDL.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateAKSClusterForScalarDL.mdx index a02b1666..4b551088 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateAKSClusterForScalarDL.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateAKSClusterForScalarDL.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsJapanese --- # ScalarDL Ledger の AKS クラスターを作成するためのガイドライン @@ -7,11 +8,11 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、ScalarDL Ledger デプロイ用の Azure Kubernetes Service (AKS) クラスターを作成するための要件と推奨事項について説明します。 ScalarDL Ledger を AKS クラスターにデプロイする方法の詳細については、[AKS に ScalarDL Ledger をデプロイする](ManualDeploymentGuideScalarDLOnAKS.mdx) を参照してください。 +このドキュメントでは、ScalarDL Ledger デプロイ用の Azure Kubernetes Service (AKS) クラスターを作成するための要件と推奨事項について説明します。ScalarDL Ledger を AKS クラスターにデプロイする方法の詳細については、[AKS に ScalarDL Ledger をデプロイする](ManualDeploymentGuideScalarDLOnAKS.mdx)を参照してください。 ## あなたが始める前に -次の要件、推奨事項、およびプロジェクトの要件に基づいて AKS クラスターを作成する必要があります。 AKS クラスターの作成方法の詳細については、環境で使用しているツールに基づいて、次の Microsoft 公式ドキュメントを参照してください。 +次の要件、推奨事項、およびプロジェクトの要件に基づいて AKS クラスターを作成する必要があります。AKS クラスターの作成方法の詳細については、環境で使用しているツールに基づいて、次の Microsoft 公式ドキュメントを参照してください。 * [Azure CLI](https://learn.microsoft.com/en-us/azure/aks/learn/quick-kubernetes-deploy-cli) * [PowerShell](https://learn.microsoft.com/en-us/azure/aks/learn/quick-kubernetes-deploy-powershell) @@ -21,22 +22,22 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; ScalarDL Ledger を展開するときは、次のことを行う必要があります。 -* [サポートされている Kubernetes バージョン](https://scalardb.scalar-labs.com/docs/latest/requirements/#kubernetes) を使用して AKS クラスターを作成します。 +* [サポートされている Kubernetes バージョン](https://scalardb.scalar-labs.com/docs/latest/requirements/#kubernetes)を使用して AKS クラスターを作成します。 * Kubernetes のバージョンとプロジェクトの要件に基づいて AKS クラスターを構成します。 :::warning -ScalarDL でのビザンチン障害検出が適切に機能するには、ScalarDL Ledger デプロイと同じ AKS クラスターにアプリケーション ポッドをデプロイしないでください。 +ScalarDL でのビザンチン障害検出が適切に機能するには、ScalarDL Ledger デプロイと同じ AKS クラスターにアプリケーションポッドをデプロイしないでください。 ::: ## 推奨事項 (オプション) -以下は、ScalarDL Ledger を展開するための推奨事項の一部です。 これらの推奨事項は必須ではないため、ニーズに基づいてこれらの推奨事項を適用するかどうかを選択できます。 +以下は、ScalarDL Ledger を展開するための推奨事項の一部です。これらの推奨事項は必須ではないため、ニーズに基づいてこれらの推奨事項を適用するかどうかを選択できます。 -### 少なくとも 3 つのワーカーノードと 3 つのポッドを作成します +### 少なくとも3つのワーカーノードと3つのポッドを作成します -AKS クラスターの高可用性を確保するには、少なくとも 3 つのワーカーノードを使用し、ワーカーノード全体に少なくとも 3 つのポッドをデプロイする必要があります。 3 つのポッドをワーカーノードに分散させるための `podAntiAffinity` の [サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-custom-values.yaml) を参照できます。 +AKS クラスターの高可用性を確保するには、少なくとも3つのワーカーノードを使用し、ワーカーノード全体に少なくとも3つのポッドをデプロイする必要があります。3つのポッドをワーカーノードに分散させるための `podAntiAffinity` の [サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-custom-values.yaml)を参照できます。 :::note @@ -44,43 +45,43 @@ AKS クラスターの高可用性を確保するには、少なくとも 3 つ ::: -### ScalarDL Ledger ノード プールのワーカーノードには 4vCPU / 8GB メモリ ノードを使用します +### ScalarDL Ledger ノードプールのワーカーノードには 4vCPU / 8GB メモリノードを使用します -商用ライセンスの観点から、ScalarDL Ledger を実行する 1 つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。 ScalarDL Ledger ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 +商用ライセンスの観点から、ScalarDL Ledger を実行する1つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。ScalarDL Ledger ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 * ScalarDL Ledger ポッド (2vCPU / 4GB) * Envoy プロキシ * 監視コンポーネント (`kube-prometheus-stack` などの監視コンポーネントをデプロイする場合) * Kubernetes コンポーネント -これを念頭に置き、[少なくとも 3 つのワーカーノードと 3 つのポッドを作成する](#create-at-least-three-worker-nodes-and-three-pods) で説明されているように、少なくとも 4vCPU / 8 GB のメモリ リソースを持つワーカーノードを使用し、可用性のために少なくとも 3 つのワーカーノードを使用する必要があります。 +これを念頭に置き、[少なくとも3つのワーカーノードと3つのポッドを作成する](#create-at-least-three-worker-nodes-and-three-pods)で説明されているように、少なくとも 4vCPU / 8 GB のメモリリソースを持つワーカーノードを使用し、可用性のために少なくとも3つのワーカーノードを使用する必要があります。 -ただし、ノードあたり少なくとも 4vCPU / 8GB のメモリ リソースを備えた 3 つのノードが運用環境の最小環境となります。 また、システムのワークロードに応じて、AKS クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDL Ledger ポッドなど) も考慮する必要があります。 さらに、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、 ワーカーノードのリソースを決定するときは、ワーカーノード上のポッドの最大数を考慮する必要があります。 +ただし、ノードあたり少なくとも 4vCPU / 8GB のメモリリソースを備えた3つのノードが運用環境の最小環境となります。また、システムのワークロードに応じて、AKS クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDL Ledger ポッドなど) も考慮する必要があります。さらに、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、 ワーカーノードのリソースを決定するときは、ワーカーノード上のポッドの最大数を考慮する必要があります。 -### ScalarDL Ledger ポッドのノード プールを作成する +### ScalarDL Ledger ポッドのノードプールを作成する -AKS は、既定でシステム ポッド (AKS を実行し続けるために使用される) に優先される **agentpool** という名前のシステム ノード プールを 1 つ作成します。 ScalarDL Ledger ポッド用に **user** モードで別のノード プールを作成し、この追加のノード プールに ScalarDL Ledger ポッドをデプロイすることをお勧めします。 +AKS は、既定でシステムポッド (AKS を実行し続けるために使用される) に優先される **agentpool** という名前のシステムノードプールを1つ作成します。ScalarDL Ledger ポッド用に **user** モードで別のノードプールを作成し、この追加のノードプールに ScalarDL Ledger ポッドをデプロイすることをお勧めします。 -### AKS でクラスター オートスケーラーを構成する +### AKS でクラスターオートスケーラーを構成する -[Horizontal Pod Autoscaler](https://learn.microsoft.com/en-us/azure/aks/concepts-scale#horizontal-pod-autoscaler) を使用して ScalarDL Ledger ポッドを自動的にスケーリングする場合は、クラスターを構成する必要があります。 AKS のオートスケーラーも同様です。 詳細については、[Cluster autoscaler](https://learn.microsoft.com/en-us/azure/aks/concepts-scale#cluster-autoscaler) にある Microsoft の公式ドキュメントを参照してください。 +[Horizontal Pod Autoscaler](https://learn.microsoft.com/en-us/azure/aks/concepts-scale#horizontal-pod-autoscaler) を使用して ScalarDL Ledger ポッドを自動的にスケーリングする場合は、クラスターを構成する必要があります。AKS のオートスケーラーも同様です。詳細については、[Cluster autoscaler](https://learn.microsoft.com/en-us/azure/aks/concepts-scale#cluster-autoscaler) にある Microsoft の公式ドキュメントを参照してください。 -さらに、クラスター オートスケーラーを構成する場合は、AKS がスケーリング後にネットワークの問題なく動作できるように、十分な数の IP が存在することを確認するために、AKS の仮想ネットワーク (VNet) にサブネットを作成する必要があります。 必要な IP の数は、ネットワーク プラグインによって異なります。 必要な IP 数の詳細については、以下を参照してください。 +さらに、クラスターオートスケーラーを構成する場合は、AKS がスケーリング後にネットワークの問題なく動作できるように、十分な数の IP が存在することを確認するために、AKS の仮想ネットワーク (VNet) にサブネットを作成する必要があります。必要な IP の数は、ネットワークプラグインによって異なります。必要な IP 数の詳細については、以下を参照してください。 * [Use kubenet networking with your own IP address ranges in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/configure-kubenet) * [Configure Azure CNI networking in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/configure-azure-cni) -### プライベート ネットワーク上に AKS クラスターを作成する +### プライベートネットワーク上に AKS クラスターを作成する -ScalarDL Ledger はインターネット アクセス経由でユーザーにサービスを直接提供しないため、プライベート ネットワーク (VNet のプライベート サブネット) 上に AKS クラスターを作成する必要があります。 アプリケーションからプライベート ネットワーク経由で ScalarDL Ledger にアクセスすることをお勧めします。 +ScalarDL Ledger はインターネットアクセス経由でユーザーにサービスを直接提供しないため、プライベートネットワーク (VNet のプライベートサブネット) 上に AKS クラスターを作成する必要があります。アプリケーションからプライベートネットワーク経由で ScalarDL Ledger にアクセスすることをお勧めします。 ### 必要に応じて、Azure CNI を使用して AKS クラスターを作成します。 -AKS の既定のネットワーク プラグインは [kubenet](https://learn.microsoft.com/en-us/azure/aks/configure-kubenet) です。 要件が kubenet と一致しない場合は、[Azure Container Networking Interface (CNI)](https://learn.microsoft.com/en-us/azure/aks/configure-azure-cni) を使用する必要があります。 +AKS の既定のネットワークプラグインは [kubenet](https://learn.microsoft.com/en-us/azure/aks/configure-kubenet) です。要件が kubenet と一致しない場合は、[Azure Container Networking Interface (CNI)](https://learn.microsoft.com/en-us/azure/aks/configure-azure-cni) を使用する必要があります。 -たとえば、1 つの AKS クラスターに複数の ScalarDL Ledger 環境をデプロイし (マルチテナントの ScalarDL Ledger をデプロイするなど)、[Kubernetes NetworkPolicies](https://kubernetes.io/docs/concepts/services-networking/network-policies/) を使用して各テナント間の接続を制御する場合、kubenet は Calico ネットワーク ポリシーのみをサポートします。 [Azure サポート チームはサポートしていません](https://learn.microsoft.com/en-us/azure/aks/use-network-policies#differences-between-azure-network-policy-manager-and-calico-network-policy-and-their-capabilities)。 Calico ネットワーク ポリシーは、Calico コミュニティまたは追加の有料サポートを通じてのみサポートされることに注意してください。 +たとえば、1つの AKS クラスターに複数の ScalarDL Ledger 環境をデプロイし (マルチテナントの ScalarDL Ledger をデプロイするなど)、[Kubernetes NetworkPolicies](https://kubernetes.io/docs/concepts/services-networking/network-policies/) を使用して各テナント間の接続を制御する場合、kubenet は Calico ネットワークポリシーのみをサポートします。[Azure サポートチームはサポートしていません](https://learn.microsoft.com/en-us/azure/aks/use-network-policies#differences-between-azure-network-policy-manager-and-calico-network-policy-and-their-capabilities)。Calico ネットワークポリシーは、Calico コミュニティまたは追加の有料サポートを通じてのみサポートされることに注意してください。 -ただし、Azure サポート チームとエンジニアリング チームは Azure CNI をサポートします。 したがって、Kubernetes NetworkPolicies を使用して Azure サポート チームからサポートを受けたい場合は、Azure CNI を使用する必要があります。 kubenet と Azure CNI の違いの詳細については、次の Microsoft 公式ドキュメントを参照してください。 +ただし、Azure サポートチームとエンジニアリングチームは Azure CNI をサポートします。したがって、Kubernetes NetworkPolicies を使用して Azure サポートチームからサポートを受けたい場合は、Azure CNI を使用する必要があります。kubenet と Azure CNI の違いの詳細については、次の Microsoft 公式ドキュメントを参照してください。 * [Network concepts for applications in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/concepts-network) * [Use kubenet networking with your own IP address ranges in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/configure-kubenet) @@ -88,14 +89,14 @@ AKS の既定のネットワーク プラグインは [kubenet](https://learn.mi ### 要件に基づいていくつかのセキュリティ機能を使用して接続を制限する -ScalarDL Ledger では未使用の接続を制限する必要があります。 未使用の接続を制限するには、[ネットワーク セキュリティ グループ] など、Azure のいくつかのセキュリティ機能を使用できます。 +ScalarDL Ledger では未使用の接続を制限する必要があります。未使用の接続を制限するには、[ネットワークセキュリティグループ] など、Azure のいくつかのセキュリティ機能を使用できます。 ScalarDL Ledger がデフォルトで使用する接続 (ポート) は次のとおりです。 * ScalarDL Ledger * 50051/TCP (クライアントからのリクエストを受け付ける) * 50052/TCP (クライアントからの特権リクエストを受け入れます) - * 50053/TCP (scalar-admin クライアント ツールからの一時停止および一時停止解除リクエストを受け入れます) + * 50053/TCP (scalar-admin クライアントツールからの一時停止および一時停止解除リクエストを受け入れます) * 8080/TCP (監視リクエストを受け付ける) * Scalar Envoy (ScalarDL Ledger とともに使用) * 50051/TCP (ScalarDL Ledger の負荷分散) @@ -104,7 +105,7 @@ ScalarDL Ledger がデフォルトで使用する接続 (ポート) は次のと :::note -- 設定ファイル (`ledger.properties`) で ScalarDL Ledger のデフォルトのリスニング ポートを変更する場合は、設定したポートを使用して接続を許可する必要があります。 -- AKS 自体が使用する接続も許可する必要があります。 AKS トラフィック要件の詳細については、[Azure Kubernetes Service (AKS) の Azure Firewall を使用した下りトラフィックの制御](https://learn.microsoft.com/en-us/azure/aks/limit-egress-traffic) を参照してください。 +- 設定ファイル (`ledger.properties`) で ScalarDL Ledger のデフォルトのリスニングポートを変更する場合は、設定したポートを使用して接続を許可する必要があります。 +- AKS 自体が使用する接続も許可する必要があります。AKS トラフィック要件の詳細については、[Azure Kubernetes Service (AKS) の Azure Firewall を使用した下りトラフィックの制御](https://learn.microsoft.com/en-us/azure/aks/limit-egress-traffic)を参照してください。 ::: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateAKSClusterForScalarDLAuditor.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateAKSClusterForScalarDLAuditor.mdx index dac34d89..0cbf387a 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateAKSClusterForScalarDLAuditor.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateAKSClusterForScalarDLAuditor.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsJapanese --- # ScalarDL Ledger および ScalarDL Auditor 用の AKS クラスターを作成するためのガイドライン @@ -7,11 +8,11 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、ScalarDL Ledger および ScalarDL Auditor のデプロイ用の Azure Kubernetes Service (AKS) クラスターを作成するための要件と推奨事項について説明します。 AKS クラスターに ScalarDL Ledger と ScalarDL Auditor をデプロイする方法の詳細については、[AKS に ScalarDL Ledger と ScalarDL Auditor をデプロイする](ManualDeploymentGuideScalarDLAuditorOnAKS.mdx) を参照してください。 +このドキュメントでは、ScalarDL Ledger および ScalarDL Auditor のデプロイ用の Azure Kubernetes Service (AKS) クラスターを作成するための要件と推奨事項について説明します。AKS クラスターに ScalarDL Ledger と ScalarDL Auditor をデプロイする方法の詳細については、[AKS に ScalarDL Ledger と ScalarDL Auditor をデプロイする](ManualDeploymentGuideScalarDLAuditorOnAKS.mdx)を参照してください。 ## あなたが始める前に -次の要件、推奨事項、およびプロジェクトの要件に基づいて AKS クラスターを作成する必要があります。 AKS クラスターの作成方法の詳細については、環境で使用しているツールに基づいて、次の Microsoft 公式ドキュメントを参照してください。 +次の要件、推奨事項、およびプロジェクトの要件に基づいて AKS クラスターを作成する必要があります。AKS クラスターの作成方法の詳細については、環境で使用しているツールに基づいて、次の Microsoft 公式ドキュメントを参照してください。 * [Azure CLI](https://learn.microsoft.com/ja-jp/azure/aks/learn/quick-kubernetes-deploy-cli) * [PowerShell](https://learn.microsoft.com/ja-jp/azure/aks/learn/quick-kubernetes-deploy-powershell) @@ -21,38 +22,38 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; ScalarDL Ledger と ScalarDL Auditor を展開する場合は、次のことを行う必要があります。 -* [サポートされている Kubernetes バージョン](https://scalardb.scalar-labs.com/docs/latest/requirements/#kubernetes) を使用して 2 つの AKS クラスターを作成します。 - * ScalarDL Ledger 用の 1 つの AKS クラスター - * ScalarDL Auditor 用の 1 つの AKS クラスター +* [サポートされている Kubernetes バージョン](https://scalardb.scalar-labs.com/docs/latest/requirements/#kubernetes)を使用して2つの AKS クラスターを作成します。 + * ScalarDL Ledger 用の1つの AKS クラスター + * ScalarDL Auditor 用の1つの AKS クラスター * Kubernetes のバージョンとプロジェクトの要件に基づいて AKS クラスターを構成します。 * 仮想ネットワーク(VNet) は以下のように設定します。 - * [Virtual network peering](https://learn.microsoft.com/en-us/azure/virtual-network/virtual-network-manage-peering) を使用して、**AKS の VNet (Ledger 用)** と **AKS の VNet (Auditor 用)** を接続します。 これを行うには、VNet の作成時に **AKS の VNet (Ledger 用)** と **AKS の VNet (Auditor 用)** に異なる IP 範囲を指定する必要があります。 + * [Virtual network peering](https://learn.microsoft.com/en-us/azure/virtual-network/virtual-network-manage-peering) を使用して、**AKS の VNet (Ledger 用)** と **AKS の VNet (Auditor 用)** を接続します。これを行うには、VNet の作成時に **AKS の VNet (Ledger 用)** と **AKS の VNet (Auditor 用)** に異なる IP 範囲を指定する必要があります。 * ScalarDL (Auditor モード) が適切に動作するように **Ledger と Auditor 間の接続**を許可します。 - * これらのネットワーク要件の詳細については、[ScalarDL Auditor Mode のネットワーク ピアリングの構成](NetworkPeeringForScalarDLAuditor.mdx) を参照してください。 + * これらのネットワーク要件の詳細については、[ScalarDL Auditor Mode のネットワークピアリングの構成](NetworkPeeringForScalarDLAuditor.mdx)を参照してください。 :::warning -ScalarDL でのビザンチン障害検出が適切に機能するには、ScalarDL Ledger および ScalarDL Auditor のデプロイと同じ AKS クラスターにアプリケーション ポッドをデプロイしないでください。 +ScalarDL でのビザンチン障害検出が適切に機能するには、ScalarDL Ledger および ScalarDL Auditor のデプロイと同じ AKS クラスターにアプリケーションポッドをデプロイしないでください。 ::: ## 推奨事項 (オプション) -以下は、ScalarDL Ledger および ScalarDL Auditor を展開するための推奨事項の一部です。 これらの推奨事項は必須ではないため、ニーズに基づいてこれらの推奨事項を適用するかどうかを選択できます。 +以下は、ScalarDL Ledger および ScalarDL Auditor を展開するための推奨事項の一部です。これらの推奨事項は必須ではないため、ニーズに基づいてこれらの推奨事項を適用するかどうかを選択できます。 -### AKS クラスターごとに少なくとも 3 つのワーカーノードと 3 つのポッドを作成します。 +### AKS クラスターごとに少なくとも3つのワーカーノードと3つのポッドを作成します。 -AKS クラスターの高可用性を確保するには、少なくとも 3 つのワーカーノードを使用し、ワーカーノード全体に少なくとも 3 つのポッドをデプロイする必要があります。 ワーカーノードに3つのPodを分散させるための `podAntiAffinity` の [ScalarDL Ledgerサンプル設定](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-custom-values.yaml) と [ScalarDL Auditorサンプル設定](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-audit-custom-values.yaml) をご覧ください。 +AKS クラスターの高可用性を確保するには、少なくとも3つのワーカーノードを使用し、ワーカーノード全体に少なくとも3つのポッドをデプロイする必要があります。ワーカーノードに3つのPodを分散させるための `podAntiAffinity` の [ScalarDL Ledgerサンプル設定](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-custom-values.yaml) と [ScalarDL Auditorサンプル設定](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-audit-custom-values.yaml)をご覧ください。 :::note -ワーカーノードを異なる [アベイラビリティ ゾーン](https://learn.microsoft.com/en-us/azure/availability-zones/az-overview) (AZ) に配置すると、AZ の障害に耐えることができます。 +ワーカーノードを異なる[アベイラビリティゾーン](https://learn.microsoft.com/en-us/azure/availability-zones/az-overview) (AZ) に配置すると、AZ の障害に耐えることができます。 ::: -### ScalarDL Ledger および ScalarDL Auditor ノード プールのワーカーノードには 4vCPU / 8GB メモリ ノードを使用します。 +### ScalarDL Ledger および ScalarDL Auditor ノードプールのワーカーノードには 4vCPU / 8GB メモリノードを使用します。 -商用ライセンスの観点から、ScalarDL Ledger または ScalarDL Auditor を実行する各ポッドのリソースは 2vCPU / 4GB メモリに制限されます。 ScalarDL Ledger および ScalarDL Auditor ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 +商用ライセンスの観点から、ScalarDL Ledger または ScalarDL Auditor を実行する各ポッドのリソースは 2vCPU / 4GB メモリに制限されます。ScalarDL Ledger および ScalarDL Auditor ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 * ScalarDL Ledger の AKS クラスター * ScalarDL Ledger ポッド (2vCPU / 4GB) @@ -65,34 +66,34 @@ AKS クラスターの高可用性を確保するには、少なくとも 3 つ * 監視コンポーネント (`kube-prometheus-stack` などの監視コンポーネントをデプロイする場合) * Kubernetes コンポーネント -これを念頭に置き、[少なくとも 3 つのワーカーノードと 3 つのポッドを作成する](#create-at-least-three-worker-nodes-and-three-pods-per-aks-cluster) で説明されているように、少なくとも 4vCPU / 8 GB のメモリ リソースを持つワーカーノードを使用し、可用性のために少なくとも 3 つのワーカーノードを使用する必要があります。 また、ビザンチン障害検出が適切に機能するには、ScalarDL Ledger および ScalarDL Auditor のデプロイと同じ AKS クラスターにアプリケーション ポッドをデプロイできないことに注意してください。 +これを念頭に置き、[少なくとも3つのワーカーノードと3つのポッドを作成する](#create-at-least-three-worker-nodes-and-three-pods-per-aks-cluster)で説明されているように、少なくとも 4vCPU / 8 GB のメモリリソースを持つワーカーノードを使用し、可用性のために少なくとも3つのワーカーノードを使用する必要があります。また、ビザンチン障害検出が適切に機能するには、ScalarDL Ledger および ScalarDL Auditor のデプロイと同じ AKS クラスターにアプリケーションポッドをデプロイできないことに注意してください。 -ただし、ノードあたり少なくとも 4vCPU / 8GB のメモリ リソースを備えた 3 つのノードが運用環境の最小環境となります。 また、システムのワークロードに応じて、AKS クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDL Ledger ポッド、ScalarDL Auditor ポッドなど) も考慮する必要があります。 また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 +ただし、ノードあたり少なくとも 4vCPU / 8GB のメモリリソースを備えた3つのノードが運用環境の最小環境となります。また、システムのワークロードに応じて、AKS クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDL Ledger ポッド、ScalarDL Auditor ポッドなど) も考慮する必要があります。また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 -### ScalarDL Ledger および ScalarDL Auditor ポッドのノード プールを作成する +### ScalarDL Ledger および ScalarDL Auditor ポッドのノードプールを作成する -AKS は、既定でシステム ポッド (AKS を実行し続けるために使用される) に優先される **agentpool** という名前のシステム ノード プールを 1 つ作成します。 ScalarDL Ledger および ScalarDL Auditor ポッド用に **user** モードで追加のノード プールを作成し、それらの追加のノード プールに ScalarDL Ledger および ScalarDL Auditor ポッドをデプロイすることをお勧めします。 +AKS は、既定でシステムポッド (AKS を実行し続けるために使用される) に優先される **agentpool** という名前のシステムノードプールを1つ作成します。ScalarDL Ledger および ScalarDL Auditor ポッド用に **user** モードで追加のノードプールを作成し、それらの追加のノードプールに ScalarDL Ledger および ScalarDL Auditor ポッドをデプロイすることをお勧めします。 -### AKS でクラスター オートスケーラーを構成する +### AKS でクラスターオートスケーラーを構成する -[Horizontal Pod Autoscaler)](https://learn.microsoft.com/en-us/azure/aks/concepts-scale#horizontal-pod-autoscaler) を使用して ScalarDL Ledger および ScalarDL Auditor ポッドを自動的にスケーリングする場合は、AKS でもクラスター オートスケーラーを構成する必要があります。 詳細については、Microsoft の公式ドキュメント [Cluster autoscaler](https://learn.microsoft.com/en-us/azure/aks/concepts-scale#cluster-autoscaler) を参照してください。 +[Horizontal Pod Autoscaler)](https://learn.microsoft.com/en-us/azure/aks/concepts-scale#horizontal-pod-autoscaler) を使用して ScalarDL Ledger および ScalarDL Auditor ポッドを自動的にスケーリングする場合は、AKS でもクラスターオートスケーラーを構成する必要があります。詳細については、Microsoft の公式ドキュメント [Cluster autoscaler](https://learn.microsoft.com/en-us/azure/aks/concepts-scale#cluster-autoscaler) を参照してください。 -さらに、クラスター オートスケーラーを構成する場合は、AKS がスケーリング後にネットワークの問題なく動作できるように、十分な数の IP が存在することを確認するために AKS 用の VNet にサブネットを作成する必要があります。 必要な IP の数は、ネットワーク プラグインによって異なります。 必要な IP 数の詳細については、以下を参照してください。 +さらに、クラスターオートスケーラーを構成する場合は、AKS がスケーリング後にネットワークの問題なく動作できるように、十分な数の IP が存在することを確認するために AKS 用の VNet にサブネットを作成する必要があります。必要な IP の数は、ネットワークプラグインによって異なります。必要な IP 数の詳細については、以下を参照してください。 * [Use kubenet networking with your own IP address ranges in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/configure-kubenet) * [Configure Azure CNI networking in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/configure-azure-cni) -### プライベート ネットワーク上に AKS クラスターを作成する +### プライベートネットワーク上に AKS クラスターを作成する -ScalarDL Ledger と ScalarDL Auditor はインターネット アクセス経由でユーザーに直接サービスを提供しないため、プライベート ネットワーク (VNet のプライベート サブネット) 上に AKS クラスターを作成する必要があります。 アプリケーションからプライベート ネットワーク経由で ScalarDL Ledger および ScalarDL Auditor にアクセスすることをお勧めします。 +ScalarDL Ledger と ScalarDL Auditor はインターネットアクセス経由でユーザーに直接サービスを提供しないため、プライベートネットワーク (VNet のプライベートサブネット) 上に AKS クラスターを作成する必要があります。アプリケーションからプライベートネットワーク経由で ScalarDL Ledger および ScalarDL Auditor にアクセスすることをお勧めします。 ### 必要に応じて、Azure CNI を使用して AKS クラスターを作成します。 -AKS の既定のネットワーク プラグインは [kubenet](https://learn.microsoft.com/en-us/azure/aks/configure-kubenet) です。 要件が kubenet と一致しない場合は、[Azure Container Networking Interface (CNI)](https://learn.microsoft.com/en-us/azure/aks/configure-azure-cni) を使用する必要があります。 +AKS の既定のネットワークプラグインは [kubenet](https://learn.microsoft.com/en-us/azure/aks/configure-kubenet) です。要件が kubenet と一致しない場合は、[Azure Container Networking Interface (CNI)](https://learn.microsoft.com/en-us/azure/aks/configure-azure-cni) を使用する必要があります。 -たとえば、複数の ScalarDL Ledger 環境と ScalarDL Auditor 環境を 2 つの AKS クラスターではなく 1 つの AKS クラスターのみにデプロイし (マルチテナントの ScalarDL をデプロイするなど)、[Kubernetes NetworkPolicies](https://kubernetes.io/docs/concepts/services-networking/network-policies/) を使用して各テナント間の接続を制御する場合、kubenet は Calico ネットワーク ポリシーのみ。[Azure サポート チームはサポートしていません](https://learn.microsoft.com/en-us/azure/aks/use-network-policies#differences-between-azure-network-policy-manager-and-calico-network-policy-and-their-capabilities)。 Calico ネットワーク ポリシーは、Calico コミュニティまたは追加の有料サポートを通じてのみサポートされることに注意してください。 +たとえば、複数の ScalarDL Ledger 環境と ScalarDL Auditor 環境を2つの AKS クラスターではなく1つの AKS クラスターのみにデプロイし (マルチテナントの ScalarDL をデプロイするなど)、[Kubernetes NetworkPolicies](https://kubernetes.io/docs/concepts/services-networking/network-policies/) を使用して各テナント間の接続を制御する場合、kubenet は Calico ネットワークポリシーのみ。[Azure サポートチームはサポートしていません](https://learn.microsoft.com/en-us/azure/aks/use-network-policies#differences-between-azure-network-policy-manager-and-calico-network-policy-and-their-capabilities)。Calico ネットワークポリシーは、Calico コミュニティまたは追加の有料サポートを通じてのみサポートされることに注意してください。 -ただし、Azure サポート チームとエンジニアリング チームは Azure CNI をサポートします。 したがって、Kubernetes NetworkPolicies を使用して Azure サポート チームからサポートを受けたい場合は、Azure CNI を使用する必要があります。 kubenet と Azure CNI の違いの詳細については、次の Microsoft 公式ドキュメントを参照してください。 +ただし、Azure サポートチームとエンジニアリングチームは Azure CNI をサポートします。したがって、Kubernetes NetworkPolicies を使用して Azure サポートチームからサポートを受けたい場合は、Azure CNI を使用する必要があります。kubenet と Azure CNI の違いの詳細については、次の Microsoft 公式ドキュメントを参照してください。 * [Network concepts for applications in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/concepts-network) * [Use kubenet networking with your own IP address ranges in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/configure-kubenet) @@ -100,19 +101,19 @@ AKS の既定のネットワーク プラグインは [kubenet](https://learn.mi ### 要件に基づいていくつかのセキュリティ機能を使用して接続を制限する -ScalarDL および ScalarDL Auditor では、未使用の接続を制限する必要があります。 未使用の接続を制限するには、[network security groups](https://learn.microsoft.com/en-us/azure/virtual-network/network-security-groups-overview) などの Azure のセキュリティ機能を使用できます。 +ScalarDL および ScalarDL Auditor では、未使用の接続を制限する必要があります。未使用の接続を制限するには、[network security groups](https://learn.microsoft.com/en-us/azure/virtual-network/network-security-groups-overview) などの Azure のセキュリティ機能を使用できます。 ScalarDL Ledger および ScalarDL Auditor がデフォルトで使用する接続 (ポート) は次のとおりです。 * ScalarDL Ledger * 50051/TCP (クライアントおよび ScalarDL Auditor からのリクエストを受け入れる) * 50052/TCP (クライアントおよび ScalarDL Auditor からの特権リクエストを受け入れます) - * 50053/TCP (scalar-admin クライアント ツールからの一時停止/一時停止解除リクエストを受け入れます) + * 50053/TCP (scalar-admin クライアントツールからの一時停止/一時停止解除リクエストを受け入れます) * 8080/TCP (監視リクエストを受け付ける) * ScalarDL Auditor * 40051/TCP (クライアントからのリクエストを受け付ける) * 40052/TCP (クライアントからの特権リクエストを受け入れます) - * 40053/TCP (scalar-admin クライアント ツールからの一時停止および一時停止解除リクエストを受け入れます) + * 40053/TCP (scalar-admin クライアントツールからの一時停止および一時停止解除リクエストを受け入れます) * 8080/TCP (監視リクエストを受け付ける) * Scalar Envoy (ScalarDL Ledger および ScalarDL Auditor とともに使用) * 50051/TCP (ScalarDL Ledger の負荷分散) @@ -123,7 +124,7 @@ ScalarDL Ledger および ScalarDL Auditor がデフォルトで使用する接 :::note -- 設定ファイル (それぞれ `ledger.properties` と `auditor.properties`) で ScalarDL Ledger と ScalarDL Auditor のデフォルトのリスニング ポートを変更する場合は、設定したポートを使用して接続を許可する必要があります。 -- AKS 自体が使用する接続も許可する必要があります。 AKS トラフィック要件の詳細については、[Control egress traffic using Azure Firewall in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/limit-egress-traffic) を参照してください。 +- 設定ファイル (それぞれ `ledger.properties` と `auditor.properties`) で ScalarDL Ledger と ScalarDL Auditor のデフォルトのリスニングポートを変更する場合は、設定したポートを使用して接続を許可する必要があります。 +- AKS 自体が使用する接続も許可する必要があります。AKS トラフィック要件の詳細については、[Control egress traffic using Azure Firewall in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/limit-egress-traffic) を参照してください。 ::: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateAKSClusterForScalarProducts.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateAKSClusterForScalarProducts.mdx index 88a10073..9e8927fc 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateAKSClusterForScalarProducts.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateAKSClusterForScalarProducts.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Scalar 製品用の AKS クラスターを作成するためのガイドライン diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateBastionServer.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateBastionServer.mdx index bd4d91c7..059eb28b 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateBastionServer.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateBastionServer.mdx @@ -2,34 +2,35 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- -# 要塞サーバーを作成する +# 踏み台サーバーを作成する import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、要塞サーバーを作成し、Scalar 製品を展開するためのいくつかのツールをインストールする方法について説明します。 +このドキュメントでは、踏み台サーバーを作成し、Scalar 製品を展開するためのいくつかのツールをインストールする方法について説明します。 -## Kubernetes クラスターと同じプライベート ネットワーク上にサーバーを作成します +## Kubernetes クラスターと同じプライベートネットワーク上にサーバーを作成します -Scalar 製品用の Kubernetes クラスターはプライベート ネットワーク上に作成することをお勧めします。 プライベート ネットワーク上に Kubernetes クラスターを作成する場合は、Kubernetes クラスターにアクセスするために、同じプライベート ネットワーク上に要塞サーバーを作成する必要があります。 +Scalar 製品用の Kubernetes クラスターはプライベートネットワーク上に作成することをお勧めします。プライベートネットワーク上に Kubernetes クラスターを作成する場合は、Kubernetes クラスターにアクセスするために、同じプライベートネットワーク上に踏み台サーバーを作成する必要があります。 ## ツールをインストールする -公式ドキュメントに従って、次のツールを要塞サーバーにインストールしてください。 +公式ドキュメントに従って、次のツールを踏み台サーバーにインストールしてください。 * [kubectl](https://kubernetes.io/docs/tasks/tools/#kubectl) * [helm](https://helm.sh/docs/intro/install/) ## kubeconfig の構成 -kubectl コマンドをインストールした後、Kubernetes クラスターにアクセスできるように **kubeconfig** を構成する必要があります。 各マネージド Kubernetes での kubeconfig の設定方法の詳細については、次の公式ドキュメントを参照してください。 +kubectl コマンドをインストールした後、Kubernetes クラスターにアクセスできるように **kubeconfig** を構成する必要があります。各マネージド Kubernetes での kubeconfig の設定方法の詳細については、次の公式ドキュメントを参照してください。 -Amazon EKS (Amazon Elastic Kubernetes Service) を使用する場合は、公式ドキュメント [Installing or updating the latest version of the AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/getting-started-install.html) に従って **AWS CLI** をインストールする必要があります。 その後、[Creating or updating a kubeconfig file for an Amazon EKS cluster](https://docs.aws.amazon.com/eks/latest/userguide/create-kubeconfig.html) で kubeconfig を設定する方法を確認できます。 +Amazon EKS (Amazon Elastic Kubernetes Service) を使用する場合は、公式ドキュメント [Installing or updating the latest version of the AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/getting-started-install.html) に従って **AWS CLI** をインストールする必要があります。その後、[Creating or updating a kubeconfig file for an Amazon EKS cluster](https://docs.aws.amazon.com/eks/latest/userguide/create-kubeconfig.html) で kubeconfig を設定する方法を確認できます。 -AKS (Azure Kubernetes Service) を使用する場合は、公式ドキュメント [How to install the Azure CLI](https://learn.microsoft.com/en-us/cli/azure/install-azure-cli) に従って **Azure CLI** をインストールする必要があります。 その後、[az aks get-credentials](https://learn.microsoft.com/en-us/cli/azure/aks?view=azure-cli-latest#az-aks-get-credentials) で kubeconfig を構成する方法を確認できます。 +AKS (Azure Kubernetes Service) を使用する場合は、公式ドキュメント [How to install the Azure CLI](https://learn.microsoft.com/en-us/cli/azure/install-azure-cli) に従って **Azure CLI** をインストールする必要があります。その後、[az aks get-credentials](https://learn.microsoft.com/en-us/cli/azure/aks?view=azure-cli-latest#az-aks-get-credentials) で kubeconfig を構成する方法を確認できます。 ## インストールを確認する @@ -44,7 +45,7 @@ AKS (Azure Kubernetes Service) を使用する場合は、公式ドキュメン helm version ``` -次のように、kubeconfig が適切に構成されているかどうかを確認することもできます。 URL 応答が表示された場合、kubectl はクラスターにアクセスするように正しく構成されています。 +次のように、kubeconfig が適切に構成されているかどうかを確認することもできます。URL 応答が表示された場合、kubectl はクラスターにアクセスするように正しく構成されています。 ```console kubectl cluster-info ``` diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarDB.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarDB.mdx index 64927fe0..57c58162 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarDB.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarDB.mdx @@ -3,6 +3,7 @@ tags: - Enterprise Standard - Enterprise Premium - Deprecated +displayed_sidebar: docsJapanese --- # (非推奨) ScalarDB Server 用の EKS クラスターを作成するためのガイドライン @@ -13,30 +14,30 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; :::warning -ScalarDB Server は非推奨になりました。 代わりに [ScalarDB Cluster](ManualDeploymentGuideScalarDBClusterOnEKS.mdx) を使用してください。 +ScalarDB Server は非推奨になりました。代わりに [ScalarDB Cluster](ManualDeploymentGuideScalarDBClusterOnEKS.mdx) を使用してください。 ::: -このドキュメントでは、ScalarDB Server デプロイメント用の Amazon Elastic Kubernetes Service (EKS) クラスターを作成するための要件と推奨事項について説明します。 ScalarDB Server を EKS クラスターにデプロイする方法の詳細については、[ScalarDB Server を Amazon EKS にデプロイする](ManualDeploymentGuideScalarDBServerOnEKS.mdx)を参照してください。 +このドキュメントでは、ScalarDB Server デプロイメント用の Amazon Elastic Kubernetes Service (EKS) クラスターを作成するための要件と推奨事項について説明します。ScalarDB Server を EKS クラスターにデプロイする方法の詳細については、[ScalarDB Server を Amazon EKS にデプロイする](ManualDeploymentGuideScalarDBServerOnEKS.mdx)を参照してください。 ## あなたが始める前に -EKS クラスターは、次の要件、推奨事項、およびプロジェクトの要件に基づいて作成する必要があります。 EKS クラスターの作成方法の詳細については、Amazon の公式ドキュメント [Creating an Amazon EKS cluster](https://docs.aws.amazon.com/eks/latest/userguide/create-cluster.html) を参照してください。 +EKS クラスターは、次の要件、推奨事項、およびプロジェクトの要件に基づいて作成する必要があります。EKS クラスターの作成方法の詳細については、Amazon の公式ドキュメント [Creating an Amazon EKS cluster](https://docs.aws.amazon.com/eks/latest/userguide/create-cluster.html) を参照してください。 ## 要件 ScalarDB Server を展開するときは、次のことを行う必要があります。 -* [サポートされている Kubernetes バージョン](https://scalardb.scalar-labs.com/docs/latest/requirements/#kubernetes) を使用して EKS クラスターを作成します。 +* [サポートされている Kubernetes バージョン](https://scalardb.scalar-labs.com/docs/latest/requirements/#kubernetes)を使用して EKS クラスターを作成します。 * Kubernetes のバージョンとプロジェクトの要件に基づいて EKS クラスターを構成します。 ## 推奨事項 (オプション) -以下に、ScalarDB Server を展開するための推奨事項をいくつか示します。 これらの推奨事項は必須ではないため、ニーズに基づいてこれらの推奨事項を適用するかどうかを選択できます。 +以下に、ScalarDB Server を展開するための推奨事項をいくつか示します。これらの推奨事項は必須ではないため、ニーズに基づいてこれらの推奨事項を適用するかどうかを選択できます。 -### 少なくとも 3 つのワーカーノードと 3 つのポッドを作成します +### 少なくとも3つのワーカーノードと3つのポッドを作成します -EKS クラスターの高可用性を確保するには、少なくとも 3 つのワーカーノードを使用し、ワーカーノード全体に少なくとも 3 つのポッドをデプロイする必要があります。 3 つのポッドをワーカーノードに分散させるための `podAntiAffinity` の [サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardb-custom-values.yaml) を参照できます。 +EKS クラスターの高可用性を確保するには、少なくとも3つのワーカーノードを使用し、ワーカーノード全体に少なくとも3つのポッドをデプロイする必要があります。3つのポッドをワーカーノードに分散させるための `podAntiAffinity` の[サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardb-custom-values.yaml)を参照できます。 :::note @@ -44,33 +45,33 @@ EKS クラスターの高可用性を確保するには、少なくとも 3 つ ::: -### ScalarDB Server ノード グループのワーカーノードには 4vCPU / 8GB メモリ ノードを使用します。 +### ScalarDB Server ノードグループのワーカーノードには 4vCPU / 8GB メモリノードを使用します。 -商用ライセンスの観点から、ScalarDB Server を実行する 1 つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。 ScalarDB Server ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 +商用ライセンスの観点から、ScalarDB Server を実行する1つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。ScalarDB Server ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 * ScalarDB Server ポッド (2vCPU / 4GB) * Envoy プロキシ -* アプリケーション ポッド (同じワーカーノード上でアプリケーションのポッドを実行することを選択した場合) +* アプリケーションポッド (同じワーカーノード上でアプリケーションのポッドを実行することを選択した場合) * 監視コンポーネント (`kube-prometheus-stack` などの監視コンポーネントをデプロイする場合) * Kubernetes コンポーネント -これを念頭に置き、[少なくとも 3 つのワーカーノードと 3 つのポッドを作成する](#create-at-least-three-worker-nodes-and-three-pods) で説明されているように、少なくとも 4vCPU / 8 GB のメモリ リソースを持つワーカーノードを使用し、可用性のために少なくとも 3 つのワーカーノードを使用する必要があります。 +これを念頭に置き、[少なくとも3つのワーカーノードと3つのポッドを作成する](#create-at-least-three-worker-nodes-and-three-pods)で説明されているように、少なくとも 4vCPU / 8 GB のメモリリソースを持つワーカーノードを使用し、可用性のために少なくとも3つのワーカーノードを使用する必要があります。 -ただし、運用環境では、ノードあたり少なくとも 4vCPU / 8GB のメモリ リソースを備えた 3 つのノードが最小条件となります。 システムのワークロードに応じて、EKS クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDB Server ポッド、アプリケーションのポッドなど) も考慮する必要があります。 また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 +ただし、運用環境では、ノードあたり少なくとも 4vCPU / 8GB のメモリリソースを備えた3つのノードが最小条件となります。システムのワークロードに応じて、EKS クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDB Server ポッド、アプリケーションのポッドなど) も考慮する必要があります。また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 -### EKS でクラスター オートスケーラーを構成する +### EKS でクラスターオートスケーラーを構成する -[Horizontal Pod Autoscaler](https://docs.aws.amazon.com/eks/latest/userguide/horizontal-pod-autoscaler.html) を使用して ScalarDB Server ポッドを自動的にスケーリングする場合は、EKS でクラスター オートスケーラーも構成する必要があります。 詳細については、Amazon の公式ドキュメント [Autoscaling](https://docs.aws.amazon.com/eks/latest/userguide/autoscaling.html#cluster-autoscaler) を参照してください。 +[Horizontal Pod Autoscaler](https://docs.aws.amazon.com/eks/latest/userguide/horizontal-pod-autoscaler.html) を使用して ScalarDB Server ポッドを自動的にスケーリングする場合は、EKS でクラスターオートスケーラーも構成する必要があります。詳細については、Amazon の公式ドキュメント [Autoscaling](https://docs.aws.amazon.com/eks/latest/userguide/autoscaling.html#cluster-autoscaler) を参照してください。 -さらに、クラスター オートスケーラーを構成する場合は、プレフィックス (`/24` など) を付けて EKS 用の Amazon Virtual Private Cloud (VPC) にサブネットを作成し、十分な数の IP が存在することを確認して、EKS がクラスター オートスケーラーなしで動作できるようにする必要があります。 スケーリング後のネットワークの問題。 +さらに、クラスターオートスケーラーを構成する場合は、プレフィックス (`/24` など) を付けて EKS 用の Amazon Virtual Private Cloud (VPC) にサブネットを作成し、十分な数の IP が存在することを確認して、EKS がクラスターオートスケーラーなしで動作できるようにする必要があります。スケーリング後のネットワークの問題。 -### プライベート ネットワーク上に EKS クラスターを作成する +### プライベートネットワーク上に EKS クラスターを作成する -ScalarDB Server はインターネット アクセス経由でユーザーにサービスを直接提供しないため、プライベート ネットワーク (VPC 内のプライベート サブネット) 上に EKS クラスターを作成する必要があります。 アプリケーションからプライベート ネットワーク経由で ScalarDB Server にアクセスすることをお勧めします。 +ScalarDB Server はインターネットアクセス経由でユーザーにサービスを直接提供しないため、プライベートネットワーク (VPC 内のプライベートサブネット) 上に EKS クラスターを作成する必要があります。アプリケーションからプライベートネットワーク経由で ScalarDB Server にアクセスすることをお勧めします。 ### 要件に基づいていくつかのセキュリティ機能を使用して接続を制限する -ScalarDB Server では未使用の接続を制限する必要があります。 未使用の接続を制限するには、[security groups](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_SecurityGroups.html) や [network access control lists](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-network-acls.html) など、AWS のいくつかのセキュリティ機能を使用できます。 +ScalarDB Server では未使用の接続を制限する必要があります。未使用の接続を制限するには、[security groups](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_SecurityGroups.html) や [network access control lists](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-network-acls.html) など、AWS のいくつかのセキュリティ機能を使用できます。 ScalarDB Server がデフォルトで使用する接続 (ポート) は次のとおりです。 @@ -83,7 +84,7 @@ ScalarDB Server がデフォルトで使用する接続 (ポート) は次のと :::note -- 構成ファイル (`database.properties`) で ScalarDB Server のデフォルトのリスニング ポートを変更する場合は、構成したポートを使用して接続を許可する必要があります。 -- EKS 自体が使用する接続も許可する必要があります。 Amazon EKS セキュリティグループの要件の詳細については、[Amazon EKS security group requirements and considerations](https://docs.aws.amazon.com/eks/latest/userguide/sec-group-reqs.html) を参照してください。 +- 構成ファイル (`database.properties`) で ScalarDB Server のデフォルトのリスニングポートを変更する場合は、構成したポートを使用して接続を許可する必要があります。 +- EKS 自体が使用する接続も許可する必要があります。Amazon EKS セキュリティグループの要件の詳細については、[Amazon EKS security group requirements and considerations](https://docs.aws.amazon.com/eks/latest/userguide/sec-group-reqs.html) を参照してください。 ::: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarDBCluster.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarDBCluster.mdx index 66f32e34..4a46d3c6 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarDBCluster.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarDBCluster.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # ScalarDB Cluster 用の EKS クラスターを作成するためのガイドライン @@ -10,26 +11,26 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、ScalarDB Cluster 展開用の Amazon Elastic Kubernetes Service (EKS) クラスターを作成するための要件と推奨事項について説明します。 ScalarDB Cluster を EKS クラスターにデプロイする方法の詳細については、[Amazon EKS に ScalarDB Cluster をデプロイする](ManualDeploymentGuideScalarDBClusterOnEKS.mdx) を参照してください。 +このドキュメントでは、ScalarDB Cluster 展開用の Amazon Elastic Kubernetes Service (EKS) クラスターを作成するための要件と推奨事項について説明します。ScalarDB Cluster を EKS クラスターにデプロイする方法の詳細については、[Amazon EKS に ScalarDB Cluster をデプロイする](ManualDeploymentGuideScalarDBClusterOnEKS.mdx) を参照してください。 ## あなたが始める前に -EKS クラスターは、次の要件、推奨事項、およびプロジェクトの要件に基づいて作成する必要があります。 EKS クラスターの作成方法の詳細については、Amazon の公式ドキュメント [Creating an Amazon EKS cluster](https://docs.aws.amazon.com/eks/latest/userguide/create-cluster.html) を参照してください。 +EKS クラスターは、次の要件、推奨事項、およびプロジェクトの要件に基づいて作成する必要があります。EKS クラスターの作成方法の詳細については、Amazon の公式ドキュメント [Creating an Amazon EKS cluster](https://docs.aws.amazon.com/eks/latest/userguide/create-cluster.html) を参照してください。 ## 要件 ScalarDB Cluster をデプロイする場合は、次のことを行う必要があります。 -* [サポートされている Kubernetes バージョン](https://scalardb.scalar-labs.com/docs/latest/requirements/#kubernetes) を使用して EKS クラスターを作成します。 +* [サポートされている Kubernetes バージョン](https://scalardb.scalar-labs.com/docs/latest/requirements/#kubernetes)を使用して EKS クラスターを作成します。 * Kubernetes のバージョンとプロジェクトの要件に基づいて EKS クラスターを構成します。 ## 推奨事項 (オプション) -以下は、ScalarDB Cluster をデプロイするための推奨事項の一部です。 これらの推奨事項は必須ではないため、ニーズに基づいてこれらの推奨事項を適用するかどうかを選択できます。 +以下は、ScalarDB Cluster をデプロイするための推奨事項の一部です。これらの推奨事項は必須ではないため、ニーズに基づいてこれらの推奨事項を適用するかどうかを選択できます。 -### 少なくとも 3 つのワーカーノードと 3 つのポッドを作成します +### 少なくとも3つのワーカーノードと3つのポッドを作成します -EKS クラスターの高可用性を確保するには、少なくとも 3 つのワーカーノードを使用し、ワーカーノード全体に少なくとも 3 つのポッドをデプロイする必要があります。 3 つのポッドをワーカーノードに分散させるための `podAntiAffinity` の [サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardb-cluster-custom-values-indirect-mode.yaml) を参照できます。 +EKS クラスターの高可用性を確保するには、少なくとも3つのワーカーノードを使用し、ワーカーノード全体に少なくとも3つのポッドをデプロイする必要があります。3つのポッドをワーカーノードに分散させるための `podAntiAffinity` の[サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardb-cluster-custom-values-indirect-mode.yaml)を参照できます。 :::note @@ -37,13 +38,13 @@ EKS クラスターの高可用性を確保するには、少なくとも 3 つ ::: -### ScalarDB Cluster ノード グループのワーカーノードには 4vCPU / 8GB メモリ ノードを使用します。 +### ScalarDB Cluster ノードグループのワーカーノードには 4vCPU / 8GB メモリノードを使用します。 -商用ライセンスの観点から、ScalarDB Cluster を実行する 1 つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。 ScalarDB Cluster ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 +商用ライセンスの観点から、ScalarDB Cluster を実行する1つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。ScalarDB Cluster ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 * ScalarDB Cluster ポッド (2vCPU / 4GB) -* Envoy プロキシ (`indirect` クライアント モードを使用する場合、または Java 以外のプログラミング言語を使用する場合) -* アプリケーション ポッド (同じワーカーノード上でアプリケーションのポッドを実行することを選択した場合) +* Envoy プロキシ (`indirect` クライアントモードを使用する場合、または Java 以外のプログラミング言語を使用する場合) +* アプリケーションポッド (同じワーカーノード上でアプリケーションのポッドを実行することを選択した場合) * 監視コンポーネント (`kube-prometheus-stack` などの監視コンポーネントをデプロイする場合) * Kubernetes コンポーネント @@ -53,23 +54,23 @@ EKS クラスターの高可用性を確保するには、少なくとも 3 つ ::: -これを念頭に置き、[少なくとも 3 つのワーカーノードと 3 つのポッドを作成する](#create-at-least-three-worker-nodes-and-three-pods) で説明されているように、少なくとも 4vCPU / 8 GB のメモリ リソースを持つワーカーノードを使用し、可用性のために少なくとも 3 つのワーカーノードを使用する必要があります。 +これを念頭に置き、[少なくとも3つのワーカーノードと3つのポッドを作成する](#create-at-least-three-worker-nodes-and-three-pods)で説明されているように、少なくとも 4vCPU / 8 GB のメモリリソースを持つワーカーノードを使用し、可用性のために少なくとも3つのワーカーノードを使用する必要があります。 -ただし、運用環境では、ノードあたり少なくとも 4vCPU / 8GB のメモリ リソースを備えた 3 つのノードが最小条件となります。 システムのワークロードに応じて、EKS クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDB Cluster ポッド、アプリケーションのポッドなど) も考慮する必要があります。 また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 +ただし、運用環境では、ノードあたり少なくとも 4vCPU / 8GB のメモリリソースを備えた3つのノードが最小条件となります。システムのワークロードに応じて、EKS クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDB Cluster ポッド、アプリケーションのポッドなど) も考慮する必要があります。また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 -### EKS でクラスター オートスケーラーを構成する +### EKS でクラスターオートスケーラーを構成する -[Horizontal Pod Autoscaler](https://docs.aws.amazon.com/eks/latest/userguide/horizontal-pod-autoscaler.html) を使用して ScalarDB Cluster ポッドを自動的にスケーリングする場合は、EKS でもクラスター オートスケーラーを構成する必要があります。 詳細については、Amazon の公式ドキュメント [Autoscaling](https://docs.aws.amazon.com/eks/latest/userguide/autoscaling.html#cluster-autoscaler) を参照してください。 +[Horizontal Pod Autoscaler](https://docs.aws.amazon.com/eks/latest/userguide/horizontal-pod-autoscaler.html) を使用して ScalarDB Cluster ポッドを自動的にスケーリングする場合は、EKS でもクラスターオートスケーラーを構成する必要があります。詳細については、Amazon の公式ドキュメント [Autoscaling](https://docs.aws.amazon.com/eks/latest/userguide/autoscaling.html#cluster-autoscaler) を参照してください。 -さらに、クラスター オートスケーラーを構成する場合は、プレフィックス (`/24` など) を付けて EKS 用の Amazon Virtual Private Cloud (VPC) にサブネットを作成し、十分な数の IP が存在することを確認して、EKS がクラスター オートスケーラーなしで動作できるようにする必要があります。 スケーリング後のネットワークの問題。 +さらに、クラスターオートスケーラーを構成する場合は、プレフィックス (`/24` など) を付けて EKS 用の Amazon Virtual Private Cloud (VPC) にサブネットを作成し、十分な数の IP が存在することを確認して、EKS がクラスターオートスケーラーなしで動作できるようにする必要があります。スケーリング後のネットワークの問題。 -### プライベート ネットワーク上に EKS クラスターを作成する +### プライベートネットワーク上に EKS クラスターを作成する -ScalarDB Cluster はインターネット アクセス経由でユーザーにサービスを直接提供しないため、EKS クラスターはプライベート ネットワーク (VPC 内のプライベート サブネット) 上に作成する必要があります。 アプリケーションからプライベート ネットワーク経由で ScalarDB Cluster にアクセスすることをお勧めします。 +ScalarDB Cluster はインターネットアクセス経由でユーザーにサービスを直接提供しないため、EKS クラスターはプライベートネットワーク (VPC 内のプライベートサブネット) 上に作成する必要があります。アプリケーションからプライベートネットワーク経由で ScalarDB Cluster にアクセスすることをお勧めします。 ### 要件に基づいていくつかのセキュリティ機能を使用して接続を制限する -ScalarDB Cluster で未使用の接続を制限する必要があります。 未使用の接続を制限するには、[security groups](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_SecurityGroups.html) や [network access control lists](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-network-acls.html) など、AWS のいくつかのセキュリティ機能を使用できます。 +ScalarDB Cluster で未使用の接続を制限する必要があります。未使用の接続を制限するには、[security groups](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_SecurityGroups.html) や [network access control lists](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-network-acls.html) など、AWS のいくつかのセキュリティ機能を使用できます。 ScalarDB Cluster がデフォルトで使用する接続 (ポート) は次のとおりです。 @@ -83,7 +84,7 @@ ScalarDB Cluster がデフォルトで使用する接続 (ポート) は次の :::note -- 構成ファイル (`scalardb-cluster-node.properties`) で ScalarDB Clusterのデフォルトのリスニング ポートを変更する場合は、構成したポートを使用して接続を許可する必要があります。 -- EKS 自体が使用する接続も許可する必要があります。 Amazon EKS セキュリティグループの要件の詳細については、[Amazon EKS security group requirements and considerations](https://docs.aws.amazon.com/eks/latest/userguide/sec-group-reqs.html) を参照してください。 +- 構成ファイル (`scalardb-cluster-node.properties`) で ScalarDB Clusterのデフォルトのリスニングポートを変更する場合は、構成したポートを使用して接続を許可する必要があります。 +- EKS 自体が使用する接続も許可する必要があります。Amazon EKS セキュリティグループの要件の詳細については、[Amazon EKS security group requirements and considerations](https://docs.aws.amazon.com/eks/latest/userguide/sec-group-reqs.html) を参照してください。 ::: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarDL.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarDL.mdx index c244507f..0f80f4b8 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarDL.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarDL.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsJapanese --- # ScalarDL Ledger の EKS クラスターを作成するためのガイドライン @@ -7,32 +8,32 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、ScalarDL Ledger デプロイ用の Amazon Elastic Kubernetes Service (EKS) クラスターを作成するための要件と推奨事項について説明します。 ScalarDL Ledger を EKS クラスターにデプロイする方法の詳細については、[ScalarDL Ledger を Amazon EKS にデプロイする](ManualDeploymentGuideScalarDLOnEKS.mdx)を参照してください。 +このドキュメントでは、ScalarDL Ledger デプロイ用の Amazon Elastic Kubernetes Service (EKS) クラスターを作成するための要件と推奨事項について説明します。ScalarDL Ledger を EKS クラスターにデプロイする方法の詳細については、[ScalarDL Ledger を Amazon EKS にデプロイする](ManualDeploymentGuideScalarDLOnEKS.mdx)を参照してください。 ## あなたが始める前に -EKS クラスターは、次の要件、推奨事項、およびプロジェクトの要件に基づいて作成する必要があります。 EKS クラスターの作成方法の詳細については、Amazon の公式ドキュメント [Creating an Amazon EKS cluster](https://docs.aws.amazon.com/eks/latest/userguide/create-cluster.html) を参照してください。 +EKS クラスターは、次の要件、推奨事項、およびプロジェクトの要件に基づいて作成する必要があります。EKS クラスターの作成方法の詳細については、Amazon の公式ドキュメント [Creating an Amazon EKS cluster](https://docs.aws.amazon.com/eks/latest/userguide/create-cluster.html) を参照してください。 ## 要件 ScalarDL Ledger を展開するときは、次のことを行う必要があります。 -* [サポートされている Kubernetes バージョン](https://scalardb.scalar-labs.com/docs/latest/requirements/#kubernetes) を使用して EKS クラスターを作成します。 +* [サポートされている Kubernetes バージョン](https://scalardb.scalar-labs.com/docs/latest/requirements/#kubernetes)を使用して EKS クラスターを作成します。 * Kubernetes のバージョンとプロジェクトの要件に基づいて EKS クラスターを構成します。 :::warning -ScalarDL でのビザンチン障害検出が適切に機能するには、ScalarDL Ledger デプロイメントと同じ EKS クラスターにアプリケーション ポッドをデプロイしないでください。 +ScalarDL でのビザンチン障害検出が適切に機能するには、ScalarDL Ledger デプロイメントと同じ EKS クラスターにアプリケーションポッドをデプロイしないでください。 ::: ## 推奨事項 (オプション) -以下は、ScalarDL Ledger を展開するための推奨事項の一部です。 これらの推奨事項は必須ではないため、ニーズに基づいてこれらの推奨事項を適用するかどうかを選択できます。 +以下は、ScalarDL Ledger を展開するための推奨事項の一部です。これらの推奨事項は必須ではないため、ニーズに基づいてこれらの推奨事項を適用するかどうかを選択できます。 -### 少なくとも 3 つのワーカーノードと 3 つのポッドを作成します +### 少なくとも3つのワーカーノードと3つのポッドを作成します -EKS クラスターの高可用性を確保するには、少なくとも 3 つのワーカーノードを使用し、ワーカーノード全体に少なくとも 3 つのポッドをデプロイする必要があります。 3 つのポッドをワーカーノードに分散させるための `podAntiAffinity` の [サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-custom-values.yaml) を参照できます。 +EKS クラスターの高可用性を確保するには、少なくとも3つのワーカーノードを使用し、ワーカーノード全体に少なくとも3つのポッドをデプロイする必要があります。3つのポッドをワーカーノードに分散させるための `podAntiAffinity` の[サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-custom-values.yaml)を参照できます。 :::note @@ -40,39 +41,39 @@ EKS クラスターの高可用性を確保するには、少なくとも 3 つ ::: -### ScalarDL Ledger ノード グループのワーカーノードには 4vCPU / 8GB メモリ ノードを使用します +### ScalarDL Ledger ノードグループのワーカーノードには 4vCPU / 8GB メモリノードを使用します -商用ライセンスの観点から、ScalarDL Ledger を実行する 1 つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。 ScalarDL Ledger ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 +商用ライセンスの観点から、ScalarDL Ledger を実行する1つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。ScalarDL Ledger ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 * ScalarDL Ledger ポッド (2vCPU / 4GB) * Envoy プロキシ * 監視コンポーネント (`kube-prometheus-stack` などの監視コンポーネントをデプロイする場合) * Kubernetes コンポーネント -これを念頭に置き、[少なくとも 3 つのワーカーノードと 3 つのポッドを作成する](#create-at-least-three-worker-nodes-and-three-pods) で説明されているように、少なくとも 4vCPU / 8 GB のメモリ リソースを持つワーカーノードを使用し、可用性のために少なくとも 3 つのワーカーノードを使用する必要があります。 +これを念頭に置き、[少なくとも3つのワーカーノードと3つのポッドを作成する](#create-at-least-three-worker-nodes-and-three-pods)で説明されているように、少なくとも 4vCPU / 8 GB のメモリリソースを持つワーカーノードを使用し、可用性のために少なくとも3つのワーカーノードを使用する必要があります。 -ただし、ノードあたり少なくとも 4vCPU / 8GB のメモリ リソースを備えた 3 つのノードが運用環境の最小環境となります。 システムのワークロードに応じて、EKS クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDL Ledger ポッドなど) も考慮する必要があります。 また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 +ただし、ノードあたり少なくとも 4vCPU / 8GB のメモリリソースを備えた3つのノードが運用環境の最小環境となります。システムのワークロードに応じて、EKS クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDL Ledger ポッドなど) も考慮する必要があります。また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 -### EKS でクラスター オートスケーラーを構成する +### EKS でクラスターオートスケーラーを構成する -[Horizontal Pod Autoscaler](https://docs.aws.amazon.com/eks/latest/userguide/horizontal-pod-autoscaler.html) を使用して ScalarDL Ledger ポッドを自動的にスケーリングする場合は、EKS でクラスター オートスケーラーも構成する必要があります。 詳細については、Amazon の公式ドキュメント [Autoscaling](https://docs.aws.amazon.com/eks/latest/userguide/autoscaling.html#cluster-autoscaler) を参照してください。 +[Horizontal Pod Autoscaler](https://docs.aws.amazon.com/eks/latest/userguide/horizontal-pod-autoscaler.html) を使用して ScalarDL Ledger ポッドを自動的にスケーリングする場合は、EKS でクラスターオートスケーラーも構成する必要があります。詳細については、Amazon の公式ドキュメント [Autoscaling](https://docs.aws.amazon.com/eks/latest/userguide/autoscaling.html#cluster-autoscaler) を参照してください。 -さらに、クラスター オートスケーラーを構成する場合は、プレフィックス (`/24`など) を付けて EKS 用の Amazon Virtual Private Cloud (VPC) にサブネットを作成し、十分な数の IP が存在することを確認して、EKS がクラスター オートスケーラーなしで動作できるようにする必要があります。 スケーリング後のネットワークの問題。 +さらに、クラスターオートスケーラーを構成する場合は、プレフィックス (`/24`など) を付けて EKS 用の Amazon Virtual Private Cloud (VPC) にサブネットを作成し、十分な数の IP が存在することを確認して、EKS がクラスターオートスケーラーなしで動作できるようにする必要があります。スケーリング後のネットワークの問題。 -### プライベート ネットワーク上に EKS クラスターを作成する +### プライベートネットワーク上に EKS クラスターを作成する -ScalarDL Ledger はインターネット アクセス経由でユーザーにサービスを直接提供しないため、プライベート ネットワーク (VPC 内のプライベート サブネット) 上に EKS クラスターを作成する必要があります。 アプリケーションからプライベート ネットワーク経由で ScalarDL Ledger にアクセスすることをお勧めします。 +ScalarDL Ledger はインターネットアクセス経由でユーザーにサービスを直接提供しないため、プライベートネットワーク (VPC 内のプライベートサブネット) 上に EKS クラスターを作成する必要があります。アプリケーションからプライベートネットワーク経由で ScalarDL Ledger にアクセスすることをお勧めします。 ### 要件に基づいていくつかのセキュリティ機能を使用して接続を制限する -ScalarDL Ledger では未使用の接続を制限する必要があります。 未使用の接続を制限するには、[security groups](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_SecurityGroups.html) や [network access control lists](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-network-acls.html) など、AWS のいくつかのセキュリティ機能を使用できます。 +ScalarDL Ledger では未使用の接続を制限する必要があります。未使用の接続を制限するには、[security groups](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_SecurityGroups.html) や [network access control lists](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-network-acls.html) など、AWS のいくつかのセキュリティ機能を使用できます。 ScalarDL Ledger がデフォルトで使用する接続 (ポート) は次のとおりです。 * ScalarDL Ledger * 50051/TCP (クライアントからのリクエストを受け付ける) * 50052/TCP (クライアントからの特権リクエストを受け入れます) - * 50053/TCP (scalar-admin クライアント ツールからの一時停止および一時停止解除リクエストを受け入れます) + * 50053/TCP (scalar-admin クライアントツールからの一時停止および一時停止解除リクエストを受け入れます) * 8080/TCP (監視リクエストを受け付ける) * Scalar Envoy (ScalarDL Ledger とともに使用) * 50051/TCP (ScalarDL Ledger の負荷分散) @@ -81,7 +82,7 @@ ScalarDL Ledger がデフォルトで使用する接続 (ポート) は次のと :::note -- 設定ファイル (`ledger.properties`) で ScalarDL Ledger のデフォルトのリスニング ポートを変更する場合は、設定したポートを使用して接続を許可する必要があります。 -- EKS 自体が使用する接続も許可する必要があります。 Amazon EKS セキュリティグループの要件の詳細については、[Amazon EKS security group requirements and considerations](https://docs.aws.amazon.com/eks/latest/userguide/sec-group-reqs.html) を参照してください。 +- 設定ファイル (`ledger.properties`) で ScalarDL Ledger のデフォルトのリスニングポートを変更する場合は、設定したポートを使用して接続を許可する必要があります。 +- EKS 自体が使用する接続も許可する必要があります。Amazon EKS セキュリティグループの要件の詳細については、[Amazon EKS security group requirements and considerations](https://docs.aws.amazon.com/eks/latest/userguide/sec-group-reqs.html) を参照してください。 ::: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarDLAuditor.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarDLAuditor.mdx index 4c86194a..af52de0e 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarDLAuditor.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarDLAuditor.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsJapanese --- # ScalarDL Ledger および ScalarDL Auditor 用の EKS クラスターを作成するためのガイドライン @@ -7,38 +8,38 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、ScalarDL Ledger および ScalarDL Auditor のデプロイ用の Amazon Elastic Kubernetes Service (EKS) クラスターを作成するための要件と推奨事項について説明します。 ScalarDL Ledger と ScalarDL Auditor を EKS クラスターにデプロイする方法の詳細については、[ScalarDL Ledger と ScalarDL Auditor を Amazon EKS にデプロイする](ManualDeploymentGuideScalarDLAuditorOnEKS.mdx) を参照してください。 +このドキュメントでは、ScalarDL Ledger および ScalarDL Auditor のデプロイ用の Amazon Elastic Kubernetes Service (EKS) クラスターを作成するための要件と推奨事項について説明します。ScalarDL Ledger と ScalarDL Auditor を EKS クラスターにデプロイする方法の詳細については、[ScalarDL Ledger と ScalarDL Auditor を Amazon EKS にデプロイする](ManualDeploymentGuideScalarDLAuditorOnEKS.mdx) を参照してください。 ## あなたが始める前に -EKS クラスターは、次の要件、推奨事項、およびプロジェクトの要件に基づいて作成する必要があります。 EKS クラスターの作成方法の詳細については、Amazon の公式ドキュメント [Creating an Amazon EKS cluster](https://docs.aws.amazon.com/eks/latest/userguide/create-cluster.html) を参照してください。 +EKS クラスターは、次の要件、推奨事項、およびプロジェクトの要件に基づいて作成する必要があります。EKS クラスターの作成方法の詳細については、Amazon の公式ドキュメント [Creating an Amazon EKS cluster](https://docs.aws.amazon.com/eks/latest/userguide/create-cluster.html) を参照してください。 ## 要件 ScalarDL Ledger と ScalarDL Auditor を展開する場合は、次のことを行う必要があります。 -* [サポートされている Kubernetes バージョン](https://scalardb.scalar-labs.com/docs/latest/requirements/#kubernetes) を使用して 2 つの EKS クラスターを作成します。 - * ScalarDL Ledger 用の 1 つの EKS クラスター - * ScalarDL Auditor 用の 1 つの EKS クラスター +* [サポートされている Kubernetes バージョン](https://scalardb.scalar-labs.com/docs/latest/requirements/#kubernetes)を使用して2つの EKS クラスターを作成します。 + * ScalarDL Ledger 用の1つの EKS クラスター + * ScalarDL Auditor 用の1つの EKS クラスター * Kubernetes のバージョンとプロジェクトの要件に基づいて EKS クラスターを構成します。 ※ Amazon Virtual Private Cloud (VPC) は次のように設定します。 - * **EKS の VPC (Ledger 用)** と **EKS の VPC (Auditor 用)** を [VPC peering](https://docs.aws.amazon.com/vpc/latest/peering/what-is-vpc-peering.html) を使用して接続します。 これを行うには、VPC の作成時に **EKS の VPC (Ledger 用)** と **EKS の VPC (Auditor 用)** に異なる IP 範囲を指定する必要があります。 + * **EKS の VPC (Ledger 用)** と **EKS の VPC (Auditor 用)** を [VPC peering](https://docs.aws.amazon.com/vpc/latest/peering/what-is-vpc-peering.html) を使用して接続します。これを行うには、VPC の作成時に **EKS の VPC (Ledger 用)** と **EKS の VPC (Auditor 用)** に異なる IP 範囲を指定する必要があります。 * ScalarDL (Auditor モード) が適切に動作するように **Ledger と Auditor 間の接続**を許可します。 - * これらのネットワーク要件の詳細については、[ScalarDL Auditor Mode のネットワーク ピアリングの構成](NetworkPeeringForScalarDLAuditor.mdx) を参照してください。 + * これらのネットワーク要件の詳細については、[ScalarDL Auditor Mode のネットワークピアリングの構成](NetworkPeeringForScalarDLAuditor.mdx)を参照してください。 :::warning -ScalarDL でのビザンチン障害検出が適切に機能するには、ScalarDL Ledger および ScalarDL Auditor のデプロイメントと同じ EKS クラスターにアプリケーション ポッドをデプロイしないでください。 +ScalarDL でのビザンチン障害検出が適切に機能するには、ScalarDL Ledger および ScalarDL Auditor のデプロイメントと同じ EKS クラスターにアプリケーションポッドをデプロイしないでください。 ::: ## 推奨事項 (オプション) -以下は、ScalarDL Ledger および ScalarDL Auditor を展開するための推奨事項の一部です。 これらの推奨事項は必須ではないため、ニーズに基づいてこれらの推奨事項を適用するかどうかを選択できます。 +以下は、ScalarDL Ledger および ScalarDL Auditor を展開するための推奨事項の一部です。これらの推奨事項は必須ではないため、ニーズに基づいてこれらの推奨事項を適用するかどうかを選択できます。 -### EKS クラスターごとに少なくとも 3 つのワーカーノードと 3 つのポッドを作成します +### EKS クラスターごとに少なくとも3つのワーカーノードと3つのポッドを作成します -EKS クラスターの高可用性を確保するには、少なくとも 3 つのワーカーノードを使用し、ワーカーノード全体に少なくとも 3 つのポッドをデプロイする必要があります。 3 つの Pod をワーカーノードに分散させるための `podAntiAffinity` の [ScalarDL Ledger サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-custom-values.yaml) と [ScalarDL Auditor サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-audit-custom-values.yaml) を参照できます。 +EKS クラスターの高可用性を確保するには、少なくとも3つのワーカーノードを使用し、ワーカーノード全体に少なくとも3つのポッドをデプロイする必要があります。3つの Pod をワーカーノードに分散させるための `podAntiAffinity` の [ScalarDL Ledger サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-custom-values.yaml)と [ScalarDL Auditor サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-audit-custom-values.yaml)を参照できます。 :::note @@ -46,9 +47,9 @@ EKS クラスターの高可用性を確保するには、少なくとも 3 つ ::: -### ScalarDL Ledger および ScalarDL Auditor ノード グループのワーカーノードには 4vCPU / 8GB メモリ ノードを使用します。 +### ScalarDL Ledger および ScalarDL Auditor ノードグループのワーカーノードには 4vCPU / 8GB メモリノードを使用します。 -商用ライセンスの観点から、ScalarDL Ledger または ScalarDL Auditor を実行する各ポッドのリソースは 2vCPU / 4GB メモリに制限されます。 ScalarDL Ledger および ScalarDL Auditor ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 +商用ライセンスの観点から、ScalarDL Ledger または ScalarDL Auditor を実行する各ポッドのリソースは 2vCPU / 4GB メモリに制限されます。ScalarDL Ledger および ScalarDL Auditor ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 * ScalarDL Ledger 用の EKS クラスター * ScalarDL Ledger ポッド (2vCPU / 4GB) @@ -61,35 +62,35 @@ EKS クラスターの高可用性を確保するには、少なくとも 3 つ * 監視コンポーネント (`kube-prometheus-stack` などの監視コンポーネントをデプロイする場合) * Kubernetes コンポーネント -これを念頭に置き、[少なくとも 3 つのワーカーノードと 3 つのポッドを作成する](#create-at-least-three-worker-nodes-and-three-pods-per-eks-cluster) で説明されているように、少なくとも 4vCPU / 8 GB のメモリ リソースを持つワーカーノードを使用し、可用性のために少なくとも 3 つのワーカーノードを使用する必要があります。 また、ビザンチン障害検出が適切に機能するには、ScalarDL Ledger および ScalarDL Auditor のデプロイメントと同じ EKS クラスターにアプリケーション ポッドをデプロイできないことを覚えておいてください。 +これを念頭に置き、[少なくとも3つのワーカーノードと3つのポッドを作成する](#create-at-least-three-worker-nodes-and-three-pods-per-eks-cluster)で説明されているように、少なくとも 4vCPU / 8 GB のメモリリソースを持つワーカーノードを使用し、可用性のために少なくとも3つのワーカーノードを使用する必要があります。また、ビザンチン障害検出が適切に機能するには、ScalarDL Ledger および ScalarDL Auditor のデプロイメントと同じ EKS クラスターにアプリケーションポッドをデプロイできないことを覚えておいてください。 -ただし、実稼働環境としては、ノードあたり少なくとも 4vCPU / 8GB のメモリ リソースを持つ 3 つのノードが必要です。 システムのワークロードに応じて、EKS クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDL Ledger ポッド、ScalarDL Auditor ポッドなど) も考慮する必要があります。 また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 +ただし、実稼働環境としては、ノードあたり少なくとも 4vCPU / 8GB のメモリリソースを持つ3つのノードが必要です。システムのワークロードに応じて、EKS クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDL Ledger ポッド、ScalarDL Auditor ポッドなど) も考慮する必要があります。また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 -### EKS でクラスター オートスケーラーを構成する +### EKS でクラスターオートスケーラーを構成する -[Horizontal Pod Autoscaler](https://docs.aws.amazon.com/eks/latest/userguide/horizontal-pod-autoscaler.html) を使用して ScalarDL Ledger または ScalarDL Auditor ポッドを自動的にスケーリングする場合は、EKS でクラスター オートスケーラーも構成する必要があります。 詳細については、Amazon の公式ドキュメント [Autoscaling](https://docs.aws.amazon.com/eks/latest/userguide/autoscaling.html#cluster-autoscaler) を参照してください。 +[Horizontal Pod Autoscaler](https://docs.aws.amazon.com/eks/latest/userguide/horizontal-pod-autoscaler.html) を使用して ScalarDL Ledger または ScalarDL Auditor ポッドを自動的にスケーリングする場合は、EKS でクラスターオートスケーラーも構成する必要があります。詳細については、Amazon の公式ドキュメント [Autoscaling](https://docs.aws.amazon.com/eks/latest/userguide/autoscaling.html#cluster-autoscaler) を参照してください。 -さらに、クラスター オートスケーラーを構成する場合は、スケーリング後にネットワークの問題なく EKS が動作できるように、十分な数の IP が存在することを確認するために、プレフィックス (`/24` など) を付けて EKS 用の VPC にサブネットを作成する必要があります。 +さらに、クラスターオートスケーラーを構成する場合は、スケーリング後にネットワークの問題なく EKS が動作できるように、十分な数の IP が存在することを確認するために、プレフィックス (`/24` など) を付けて EKS 用の VPC にサブネットを作成する必要があります。 -### プライベート ネットワーク上に EKS クラスターを作成する +### プライベートネットワーク上に EKS クラスターを作成する -ScalarDL Ledger と ScalarDL Auditor はインターネット アクセス経由でユーザーに直接サービスを提供しないため、プライベート ネットワーク (VPC 内のプライベート サブネット) 上に EKS クラスターを作成する必要があります。 アプリケーションからプライベート ネットワーク経由で ScalarDL Ledger および ScalarDL Auditor にアクセスすることをお勧めします。 +ScalarDL Ledger と ScalarDL Auditor はインターネットアクセス経由でユーザーに直接サービスを提供しないため、プライベートネットワーク (VPC 内のプライベートサブネット) 上に EKS クラスターを作成する必要があります。アプリケーションからプライベートネットワーク経由で ScalarDL Ledger および ScalarDL Auditor にアクセスすることをお勧めします。 ### 要件に基づいていくつかのセキュリティ機能を使用して接続を制限する -ScalarDL Ledger および ScalarDL Auditor で未使用の接続を制限する必要があります。 未使用の接続を制限するには、[security groups](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_SecurityGroups.html) や [network access control lists](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-network-acls.html) など、AWS のいくつかのセキュリティ機能を使用できます。 +ScalarDL Ledger および ScalarDL Auditor で未使用の接続を制限する必要があります。未使用の接続を制限するには、[security groups](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_SecurityGroups.html) や [network access control lists](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-network-acls.html) など、AWS のいくつかのセキュリティ機能を使用できます。 ScalarDL Ledger および ScalarDL Auditor がデフォルトで使用する接続 (ポート) は次のとおりです。 * ScalarDL Ledger * 50051/TCP (クライアントおよび ScalarDL Auditor からのリクエストを受け入れる) * 50052/TCP (クライアントおよび ScalarDL Auditor からの特権リクエストを受け入れます) - * 50053/TCP (scalar-admin クライアント ツールからの一時停止および一時停止解除リクエストを受け入れます) + * 50053/TCP (scalar-admin クライアントツールからの一時停止および一時停止解除リクエストを受け入れます) * 8080/TCP (監視リクエストを受け付ける) * ScalarDL Auditor * 40051/TCP (クライアントからのリクエストを受け付ける) * 40052/TCP (クライアントからの特権リクエストを受け入れます) - * 40053/TCP (scalar-admin クライアント ツールからの一時停止および一時停止解除リクエストを受け入れます) + * 40053/TCP (scalar-admin クライアントツールからの一時停止および一時停止解除リクエストを受け入れます) * 8080/TCP (監視リクエストを受け付ける) * Scalar Envoy (ScalarDL Ledger および ScalarDL Auditor とともに使用) * 50051/TCP (ScalarDL Ledger の負荷分散) @@ -100,7 +101,7 @@ ScalarDL Ledger および ScalarDL Auditor がデフォルトで使用する接 :::note -- 設定ファイル (それぞれ `ledger.properties` と `auditor.properties`) で ScalarDL Ledger と ScalarDL Auditor のデフォルトのリスニング ポートを変更する場合は、設定したポートを使用して接続を許可する必要があります。 -- EKS 自体が使用する接続も許可する必要があります。 Amazon EKS セキュリティグループの要件の詳細については、[Amazon EKS security group requirements and considerations](https://docs.aws.amazon.com/eks/latest/userguide/sec-group-reqs.html) を参照してください。 +- 設定ファイル (それぞれ `ledger.properties` と `auditor.properties`) で ScalarDL Ledger と ScalarDL Auditor のデフォルトのリスニングポートを変更する場合は、設定したポートを使用して接続を許可する必要があります。 +- EKS 自体が使用する接続も許可する必要があります。Amazon EKS セキュリティグループの要件の詳細については、[Amazon EKS security group requirements and considerations](https://docs.aws.amazon.com/eks/latest/userguide/sec-group-reqs.html) を参照してください。 ::: diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarProducts.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarProducts.mdx index 2568646a..fce1470b 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarProducts.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarProducts.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Scalar 製品用の Amazon EKS クラスターを作成するためのガイドライン diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx index 8f60e768..3cf970de 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Scalar 製品で TLS 接続に利用する秘密鍵と証明書ファイルを作成する方法 @@ -16,14 +17,14 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; * 秘密鍵と証明書ファイルのアルゴリズムとしては `RSA` または `ECDSA` のみ使用可能です。 -## サンプルの秘密キーと証明書ファイルを作成する手順の例 +## サンプルの秘密鍵と証明書ファイルを作成する手順の例 -[`cfssl` および `cfssljson`](https://github.com/cloudflare/cfssl) を使用して、サンプルの秘密キーと証明書ファイルを作成できます。 `cfssl` と `cfssljson` をまだインストールしていない場合は、まずインストールしてください。 +[`cfssl` および `cfssljson`](https://github.com/cloudflare/cfssl) を使用して、サンプルの秘密鍵と証明書ファイルを作成できます。`cfssl` と `cfssljson` をまだインストールしていない場合は、まずインストールしてください。 :::note -* `openssl` などの他のツールを使用して、秘密鍵と証明書ファイルを作成することもできます。 あるいは、サードパーティ CA またはプライベート CA の管理者に本番環境用の秘密キーと証明書の作成を依頼することもできます。 -* この例では自己署名証明書を作成します。 ただし、これらの証明書を運用環境では使用しないことを強くお勧めします。 セキュリティ要件に基づいて実稼働環境用の証明書ファイルを作成するように、信頼できる発行者 (パブリック CA またはプライベート CA) に依頼してください。 +* `openssl` などの他のツールを使用して、秘密鍵と証明書ファイルを作成することもできます。あるいは、サードパーティ CA またはプライベート CA の管理者に本番環境用の秘密鍵と証明書の作成を依頼することもできます。 +* この例では自己署名証明書を作成します。ただし、これらの証明書を運用環境では使用しないことを強くお勧めします。セキュリティ要件に基づいて実稼働環境用の証明書ファイルを作成するように、信頼できる発行者 (パブリック CA またはプライベート CA) に依頼してください。 ::: @@ -117,13 +118,13 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; EOF ``` -1. サーバーの秘密キーと証明書ファイルを作成します。 +1. サーバーの秘密鍵と証明書ファイルを作成します。 ```console cfssl gencert -ca ca.pem -ca-key ca-key.pem -config ca-config.json -profile scalar-example-ca server.json | cfssljson -bare server ``` -1. 秘密キーと証明書ファイルが作成されたことを確認します。 +1. 秘密鍵と証明書ファイルが作成されたことを確認します。 ```console ls -1 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/HowToGetContainerImages.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/HowToGetContainerImages.mdx index ed530433..9867c099 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/HowToGetContainerImages.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/HowToGetContainerImages.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Scalar 製品のコンテナイメージの取得方法 @@ -12,16 +13,16 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -Scalar 製品のコンテナ イメージは、いくつかの方法で取得できます。 以下のいずれかの方法をお選びください。 +Scalar 製品のコンテナイメージは、いくつかの方法で取得できます。以下のいずれかの方法をお選びください。 - 商用ライセンスをお持ちの場合は、パブリックコンテナーリポジトリからコンテナイメージを取得できます。 コンテナイメージの使用方法の詳細については、[コンテナイメージの使用方法](./HowToUseContainerImages.mdx) を参照してください。 + 商用ライセンスをお持ちの場合は、パブリックコンテナーリポジトリからコンテナイメージを取得できます。コンテナイメージの使用方法の詳細については、[コンテナイメージの使用方法](./HowToUseContainerImages.mdx)を参照してください。 - Scalar 製品は AWS Marketplace から入手できます。 AWS Marketplace の詳細については、[AWS Marketplace 経由で Scalar 製品をインストールする方法](./AwsMarketplaceGuide.mdx) を参照してください。 + Scalar 製品は AWS Marketplace から入手できます。AWS Marketplace の詳細については、[AWS Marketplace 経由で Scalar 製品をインストールする方法](./AwsMarketplaceGuide.mdx)を参照してください。 - 現在、Azure Marketplace の Scalar 製品は利用できません。 代わりに他の方法を使用してください。 + 現在、Azure Marketplace の Scalar 製品は利用できません。代わりに他の方法を使用してください。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/HowToScaleScalarDB.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/HowToScaleScalarDB.mdx index 53cc076b..addedef2 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/HowToScaleScalarDB.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/HowToScaleScalarDB.mdx @@ -3,6 +3,7 @@ tags: - Community - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # ScalarDB をスケーリングする方法 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/HowToScaleScalarDL.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/HowToScaleScalarDL.mdx index 6268fb01..bd515bcb 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/HowToScaleScalarDL.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/HowToScaleScalarDL.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsJapanese --- # ScalarDL をスケーリングする方法 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/HowToUpgradeScalarDB.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/HowToUpgradeScalarDB.mdx index fec1e03a..fac778aa 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/HowToUpgradeScalarDB.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/HowToUpgradeScalarDB.mdx @@ -3,6 +3,7 @@ tags: - Community - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # ScalarDB のアップグレード方法 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/HowToUpgradeScalarDL.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/HowToUpgradeScalarDL.mdx index 7881896b..0d479441 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/HowToUpgradeScalarDL.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/HowToUpgradeScalarDL.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsJapanese --- # ScalarDL のアップグレード方法 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/HowToUseContainerImages.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/HowToUseContainerImages.mdx index d585d943..61a7ec7f 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/HowToUseContainerImages.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/HowToUseContainerImages.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # コンテナイメージの使用方法 @@ -12,14 +13,14 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -パブリックコンテナリポジトリからコンテナイメージをプルできます。 コンテナイメージを使用する場合は、`.properties` ファイルにライセンスキーと証明書を設定する必要があります。 +パブリックコンテナリポジトリからコンテナイメージをプルできます。コンテナイメージを使用する場合は、`.properties` ファイルにライセンスキーと証明書を設定する必要があります。 ## 前提条件 パブリックコンテナイメージは、次の製品とバージョンで利用できます。 -* ScalarDB Cluster v3.12 以降 -* ScalarDL v3.9 以降 +* ScalarDB Cluster v3.12以降 +* ScalarDL v3.9以降 ## パブリックコンテナリポジトリからコンテナイメージをプルします。 @@ -85,7 +86,7 @@ Scalar Helm Chart を使用する場合は、カスタム値ファイルに `*.i ## `.properties` ファイルにライセンスキーを設定します -コンテナイメージを実行するには、`.properties` ファイルに `ライセンスキー` と `証明書` を設定する必要があります。Scalar 製品を選択して、`license key` と `certificate` を設定する方法を確認してください。ライセンスキーをお持ちでない場合は、[お問い合わせ](https://www.scalar-labs.com/contact) までご連絡ください。 +コンテナイメージを実行するには、`.properties` ファイルに `ライセンスキー` と `証明書` を設定する必要があります。Scalar 製品を選択して、`license key` と `certificate` を設定する方法を確認してください。ライセンスキーをお持ちでない場合は、[お問い合わせ](https://www.scalar-labs.com/contact)までご連絡ください。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/K8sLogCollectionGuide.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/K8sLogCollectionGuide.mdx index 2e86c17c..0ca21c3d 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/K8sLogCollectionGuide.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/K8sLogCollectionGuide.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Kubernetes クラスター上の Scalar 製品からのログの収集 @@ -12,9 +13,9 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、Helm を使用して Grafana Loki と Promtail を Kubernetes にデプロイする方法について説明します。 このドキュメントに従うと、Kubernetes 環境で Scalar 製品のログを収集できます。 +このドキュメントでは、Helm を使用して Grafana Loki と Promtail を Kubernetes にデプロイする方法について説明します。このドキュメントに従うと、Kubernetes 環境で Scalar 製品のログを収集できます。 -マネージド Kubernetes クラスターを使用しており、監視とログ記録にクラウド サービス機能を使用したい場合は、次のドキュメントを参照してください。 +マネージド Kubernetes クラスターを使用しており、監視とログ記録にクラウドサービス機能を使用したい場合は、次のドキュメントを参照してください。 * [Logging and monitoring on Amazon EKS](https://docs.aws.amazon.com/prescriptive-guidance/latest/implementing-logging-monitoring-cloudwatch/amazon-eks-logging-monitoring.html) * [Monitoring Azure Kubernetes Service (AKS) with Azure Monitor](https://learn.microsoft.com/en-us/azure/aks/monitor-aks) @@ -24,8 +25,8 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; * Kubernetes クラスターを作成します。 * [Scalar 製品用の EKS クラスターを作成する](CreateEKSClusterForScalarProducts.mdx) * [Scalar 製品用の AKS クラスターを作成する](CreateAKSClusterForScalarProducts.mdx) -* 要塞サーバーを作成し、`kubeconfig` を設定します。 - * [要塞サーバーの作成](CreateBastionServer.mdx) +* 踏み台サーバーを作成し、`kubeconfig` を設定します。 + * [踏み台サーバーの作成](CreateBastionServer.mdx) * Prometheus Operator をデプロイします (収集されたログを調査するために Grafana を使用します) * [Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) @@ -42,7 +43,7 @@ helm repo update ## カスタム値ファイルを準備する -loki-stack のサンプルファイル [scalar-loki-stack-custom-values.yaml](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalar-loki-stack-custom-values.yaml) を入手してください。 Scalar 製品のロギングには、このサンプル ファイルの構成をお勧めします。 +loki-stack のサンプルファイル [scalar-loki-stack-custom-values.yaml](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalar-loki-stack-custom-values.yaml) を入手してください。Scalar 製品のロギングには、このサンプルファイルの構成をお勧めします。 ### カスタム値ファイルで nodeSelector を設定する (オプション) @@ -148,7 +149,7 @@ Kubernetes ワーカーノードにテイントを追加している場合は、 ## Loki と Promtail をデプロイする -Loki と Promtail は、Prometheus や Grafana と同じ名前空間 `Monitoring` にデプロイすることをお勧めします。 `Monitoring` 名前空間は、ドキュメント [Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) ですでに作成済みです。 +Loki と Promtail は、Prometheus や Grafana と同じ名前空間 `Monitoring` にデプロイすることをお勧めします。`Monitoring` 名前空間は、ドキュメント [Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx)ですでに作成済みです。 ```console helm install scalar-logging-loki grafana/loki-stack -n monitoring -f scalar-loki-stack-custom-values.yaml @@ -156,7 +157,7 @@ helm install scalar-logging-loki grafana/loki-stack -n monitoring -f scalar-loki ## Loki と Promtail がデプロイされているかどうかを確認する -Loki および Promtail ポッドが適切にデプロイされている場合は、次のコマンドを使用して、`STATUS` が `Running` であることが確認できます。 promtail ポッドは DaemonSet としてデプロイされるため、promtail ポッドの数は Kubernetes ノードの数によって異なります。 次の例では、Kubernetes クラスター内に Scalar 製品のワーカーノードが 3 つあります。 +Loki および Promtail ポッドが適切にデプロイされている場合は、次のコマンドを使用して、`STATUS` が `Running` であることが確認できます。promtail ポッドは DaemonSet としてデプロイされるため、promtail ポッドの数は Kubernetes ノードの数によって異なります。次の例では、Kubernetes クラスター内に Scalar 製品のワーカーノードが3つあります。 ```console kubectl get pod -n monitoring @@ -182,4 +183,4 @@ scalar-logging-loki-promtail-gfx44 1/1 Running 0 32m 1. ログを問い合わせる条件を設定する。 1. 右上の `Run query` ボタンを選択します。 -Grafana ダッシュボードへのアクセス方法の詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) を参照してください。 +Grafana ダッシュボードへのアクセス方法の詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx)を参照してください。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/K8sMonitorGuide.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/K8sMonitorGuide.mdx index c0604fe8..69faf426 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/K8sMonitorGuide.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/K8sMonitorGuide.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Kubernetes クラスター上の Scalar 製品の監視 @@ -10,9 +11,9 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、Helm を使用して Prometheus Operator を Kubernetes にデプロイする方法について説明します。 このドキュメントに従うと、Prometheus、Alertmanager、および Grafana を使用して、Kubernetes 環境上の Scalar 製品を監視できるようになります。 +このドキュメントでは、Helm を使用して Prometheus Operator を Kubernetes にデプロイする方法について説明します。このドキュメントに従うと、Prometheus、Alertmanager、および Grafana を使用して、Kubernetes 環境上の Scalar 製品を監視できるようになります。 -マネージド Kubernetes クラスターを使用しており、監視とログ記録にクラウド サービス機能を使用したい場合は、次のドキュメントを参照してください。 +マネージド Kubernetes クラスターを使用しており、監視とログ記録にクラウドサービス機能を使用したい場合は、次のドキュメントを参照してください。 * [Logging and monitoring on Amazon EKS](https://docs.aws.amazon.com/prescriptive-guidance/latest/implementing-logging-monitoring-cloudwatch/amazon-eks-logging-monitoring.html) * [Monitoring Azure Kubernetes Service (AKS) with Azure Monitor](https://learn.microsoft.com/en-us/azure/aks/monitor-aks) @@ -22,8 +23,8 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; * Kubernetes クラスターを作成します。 * [Scalar 製品用の EKS クラスターを作成する](CreateEKSClusterForScalarProducts.mdx) * [Scalar 製品用の AKS クラスターを作成する](CreateAKSClusterForScalarProducts.mdx) -* 要塞サーバーを作成し、`kubeconfig`を設定します。 - * [要塞サーバーの作成](CreateBastionServer.mdx) +* 踏み台サーバーを作成し、`kubeconfig`を設定します。 + * [踏み台サーバーの作成](CreateBastionServer.mdx) ## prometheus-community helm リポジトリを追加します @@ -38,9 +39,9 @@ helm repo update ## カスタム値ファイルを準備する -kube-prometheus-stack のサンプル ファイル [scalar-prometheus-custom-values.yaml](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalar-prometheus-custom-values.yaml) を取得してください。 Scalar 製品の監視には、このサンプル ファイルの構成をお勧めします。 +kube-prometheus-stack のサンプルファイル [scalar-prometheus-custom-values.yaml](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalar-prometheus-custom-values.yaml) を取得してください。Scalar 製品の監視には、このサンプルファイルの構成をお勧めします。 -このサンプル ファイルでは、サービス リソースは Kubernetes クラスターの外部からのアクセスに公開されていません。 Kubernetes クラスターの外部からダッシュボードにアクセスしたい場合は、`*.service.type` を `LoadBalancer` に設定するか、`*.ingress.enabled` を `true` に設定する必要があります。 +このサンプルファイルでは、サービスリソースは Kubernetes クラスターの外部からのアクセスに公開されていません。Kubernetes クラスターの外部からダッシュボードにアクセスしたい場合は、`*.service.type` を `LoadBalancer` に設定するか、`*.ingress.enabled` を `true` に設定する必要があります。 kube-prometheus-stackの設定の詳細については、以下の公式ドキュメントを参照してください。 @@ -48,7 +49,7 @@ kube-prometheus-stackの設定の詳細については、以下の公式ドキ ## Prometheus Operator をデプロイする -Scalar 製品は、Prometheus Operator がデフォルトで `monitoring` 名前空間にデプロイされていることを前提としています。 したがって、`monitoring` 名前空間を作成し、`monitoring` 名前空間に Prometheus Operator をデプロイしてください。 +Scalar 製品は、Prometheus Operator がデフォルトで `monitoring` 名前空間にデプロイされていることを前提としています。したがって、`monitoring` 名前空間を作成し、`monitoring` 名前空間に Prometheus Operator をデプロイしてください。 1. Kubernetes 上に名前空間 `monitoring` を作成します。 ```console @@ -107,7 +108,7 @@ scalar-monitoring-kube-pro-operator-865bbb8454-9ppkc 1/1 Running 0 ## ダッシュボードにアクセスする方法 -`*.service.type` を `LoadBalancer` に設定するか、`*.ingress.enabled` を `true` に設定すると、Kubernetes の Service または Ingress 経由でダッシュボードにアクセスできます。 具体的な実装とアクセス方法はKubernetesクラスタに依存します。 マネージド Kubernetes クラスターを使用する場合、詳細についてはクラウド プロバイダーの公式ドキュメントを参照してください。 +`*.service.type` を `LoadBalancer` に設定するか、`*.ingress.enabled` を `true` に設定すると、Kubernetes の Service または Ingress 経由でダッシュボードにアクセスできます。具体的な実装とアクセス方法はKubernetesクラスタに依存します。マネージド Kubernetes クラスターを使用する場合、詳細についてはクラウドプロバイダーの公式ドキュメントを参照してください。 * EKS * [Network load balancing on Amazon EKS](https://docs.aws.amazon.com/eks/latest/userguide/network-load-balancing.html) @@ -116,11 +117,11 @@ scalar-monitoring-kube-pro-operator-865bbb8454-9ppkc 1/1 Running 0 * [Use a public standard load balancer in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/load-balancer-standard) * [Create an ingress controller in Azure Kubernetes Service (AKS)](https://learn.microsoft.com/en-us/azure/aks/ingress-basic) -## ローカル マシンからダッシュボードにアクセスします (テスト目的のみ / 運用環境では推奨されません) +## ローカルマシンからダッシュボードにアクセスします (テスト目的のみ / 運用環境では推奨されません) -`kubectl port-forward` コマンドを使用して、ローカル マシンから各ダッシュボードにアクセスできます。 +`kubectl port-forward` コマンドを使用して、ローカルマシンから各ダッシュボードにアクセスできます。 -1. ローカル マシンから各サービスへのポート転送。 +1. ローカルマシンから各サービスへのポート転送。 * Prometheus ```console kubectl port-forward -n monitoring svc/scalar-monitoring-kube-pro-prometheus 9090:9090 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDBClusterOnEKS.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDBClusterOnEKS.mdx index 6b4e5a92..abf62867 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDBClusterOnEKS.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDBClusterOnEKS.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Amazon Elastic Kubernetes Service (EKS) に ScalarDB Cluster をデプロイする @@ -12,57 +13,57 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; このガイドでは、ScalarDB Cluster を Amazon Elastic Kubernetes Service (EKS) にデプロイする方法について説明します。 -このガイドでは、AWS 環境に次の 2 つの環境のいずれかを作成します。 環境は、使用する [client mode](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/developer-guide-for-scalardb-cluster-with-java-api#client-modes) によって異なります。 +このガイドでは、AWS 環境に次の2つの環境のいずれかを作成します。環境は、使用する [client mode](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/developer-guide-for-scalardb-cluster-with-java-api#client-modes) によって異なります。 * **[`direct-kubernetes` client mode](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/developer-guide-for-scalardb-cluster-with-java-api#direct-kubernetes-client-mode).** このモードでは、ScalarDB Cluster のデプロイメントと同じ EKS クラスターにアプリケーションをデプロイします。 - ![image](./images/png/EKS_ScalarDB_Cluster_Direct_Kubernetes_Mode.drawio.png) + ![image](./images/png/EKS_ScalarDB_Cluster_Direct_Kubernetes_Mode.drawio.png) * **[`indirect` client mode](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/developer-guide-for-scalardb-cluster-with-java-api#indirect-client-mode).** このモードでは、ScalarDB Cluster のデプロイメントを含む EKS クラスターとは異なる環境にアプリケーションをデプロイします。 ![image](./images/png/EKS_ScalarDB_Cluster_Indirect_Mode.drawio.png) -## ステップ 1. AWS Marketplace で ScalarDB Cluster にサブスクライブする +## ステップ1. AWS Marketplace で ScalarDB Cluster にサブスクライブする -ScalarDB Cluster コンテナ イメージを取得するには、AWS Marketplace にアクセスし、[ScalarDB Cluster Standard Edition (Pay-As-You-Go)](https://aws.amazon.com/marketplace/pp/prodview-jx6qxatkxuwm4) または [ScalarDB Cluster Premium Edition (Pay-As-You-Go)](https://aws.amazon.com/marketplace/pp/prodview-djqw3zk6dwyk6) をサブスクライブする必要があります。 AWS Marketplace で ScalarDB Cluster をサブスクライブする方法の詳細については、[AWS Marketplace から Scalar 製品を購読する](AwsMarketplaceGuide.mdx#aws-marketplace-から-scalar-製品を購読する) を参照してください。 +ScalarDB Cluster コンテナイメージを取得するには、AWS Marketplace にアクセスし、[ScalarDB Cluster Standard Edition (Pay-As-You-Go)](https://aws.amazon.com/marketplace/pp/prodview-jx6qxatkxuwm4) または [ScalarDB Cluster Premium Edition (Pay-As-You-Go)](https://aws.amazon.com/marketplace/pp/prodview-djqw3zk6dwyk6) をサブスクライブする必要があります。AWS Marketplace で ScalarDB Cluster をサブスクライブする方法の詳細については、[AWS Marketplace から Scalar 製品を購読する](AwsMarketplaceGuide.mdx#aws-marketplace-から-scalar-製品を購読する)を参照してください。 -## ステップ 2. EKS クラスターを作成する +## ステップ2. EKS クラスターを作成する -ScalarDB Cluster のデプロイメント用の EKS クラスターを作成する必要があります。 詳細については、[Scalar 製品用の Amazon EKS クラスターを作成するためのガイドライン](CreateEKSClusterForScalarProducts.mdx) を参照してください。 +ScalarDB Cluster のデプロイメント用の EKS クラスターを作成する必要があります。詳細については、[Scalar 製品用の Amazon EKS クラスターを作成するためのガイドライン](CreateEKSClusterForScalarProducts.mdx)を参照してください。 -## ステップ 3. ScalarDB Cluster のデータベースをセットアップする +## ステップ3. ScalarDB Cluster のデータベースをセットアップする -ScalarDB Cluster をデプロイする前にデータベースを準備する必要があります。 ScalarDB がサポートするデータベースのタイプを確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 +ScalarDB Cluster をデプロイする前にデータベースを準備する必要があります。ScalarDB がサポートするデータベースのタイプを確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 -データベースのセットアップの詳細については、[AWS での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAWS.mdx) を参照してください。 +データベースのセットアップの詳細については、[AWS での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAWS.mdx)を参照してください。 -## ステップ 4. 要塞サーバーを作成する +## ステップ4. 踏み台サーバーを作成する -EKS 上で ScalarDB Cluster をデプロイおよび管理するためのいくつかのツールを実行するには、**ステップ 2** で作成した EKS クラスターの同じ Amazon Virtual Private Cloud (VPC) 内に要塞サーバーを準備する必要があります。 詳細については、[要塞サーバーの作成](CreateBastionServer.mdx) を参照してください。 +EKS 上で ScalarDB Cluster をデプロイおよび管理するためのいくつかのツールを実行するには、**ステップ2**で作成した EKS クラスターの同じ Amazon Virtual Private Cloud (VPC) 内に踏み台サーバーを準備する必要があります。詳細については、[踏み台サーバーの作成](CreateBastionServer.mdx)を参照してください。 -## ステップ 5. Scalar Helm Chart のカスタム値ファイルを準備する +## ステップ5. Scalar Helm Chart のカスタム値ファイルを準備する -**ステップ 3** で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDB Cluster の Scalar Helm Chart のカスタム値ファイルを構成する必要があります。 詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 +**ステップ3**で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDB Cluster の Scalar Helm Chart のカスタム値ファイルを構成する必要があります。詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 -**注意:** ScalarDB Cluster がデプロイされている EKS クラスターとは異なる環境にアプリケーションをデプロイする場合 (つまり、`indirect` クライアント モードを使用する場合)、`envoy.enabled` パラメーターを次のように設定する必要があります。 アプリケーションから Scalar Envoy にアクセスするには、`true` と `envoy.service.type` パラメータを `LoadBalancer` に設定します。 +**注意:** ScalarDB Cluster がデプロイされている EKS クラスターとは異なる環境にアプリケーションをデプロイする場合 (つまり、`indirect` クライアントモードを使用する場合)、`envoy.enabled` パラメーターを次のように設定する必要があります。アプリケーションから Scalar Envoy にアクセスするには、`true` と `envoy.service.type` パラメータを `LoadBalancer` に設定します。 -## ステップ 6. Scalar Helm Chart を使用して ScalarDB Cluster をデプロイする +## ステップ6. Scalar Helm Chart を使用して ScalarDB Cluster をデプロイする -ScalarDB Cluster の Helm Chart を使用して、EKS クラスターに ScalarDB Cluster をデプロイします。 詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 +ScalarDB Cluster の Helm Chart を使用して、EKS クラスターに ScalarDB Cluster をデプロイします。詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 **注意:** `kubectl create ns scalardb-cluster` コマンドを使用して専用の名前空間を作成し、`helm install` コマンドで `-n scalardb-cluster` オプションを使用して名前空間に ScalarDB Cluster をデプロイすることをお勧めします。 -## ステップ 7. ScalarDB Cluster のデプロイメントのステータスを確認する +## ステップ7. ScalarDB Cluster のデプロイメントのステータスを確認する -EKS クラスターに ScalarDB Cluster をデプロイした後、各コンポーネントのステータスを確認する必要があります。 詳細については、[Kubernetes 環境で実行するときに定期的に確認するコンポーネント](./ RegularCheck.mdx) を参照してください。 +EKS クラスターに ScalarDB Cluster をデプロイした後、各コンポーネントのステータスを確認する必要があります。詳細については、[Kubernetes 環境で実行するときに定期的に確認するコンポーネント](./ RegularCheck.mdx) を参照してください。 -## ステップ 8. ScalarDB Cluster のデプロイメントを監視する +## ステップ8. ScalarDB Cluster のデプロイメントを監視する -EKS クラスターに ScalarDB Cluster をデプロイした後、特に本番環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。 詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx) を参照してください。 +EKS クラスターに ScalarDB Cluster をデプロイした後、特に本番環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx)および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx)を参照してください。 -## ステップ 9. アプリケーションをデプロイする +## ステップ9. アプリケーションをデプロイする -[`direct-kubernetes` client mode](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/developer-guide-for-scalardb-cluster-with-java-api#direct-kubernetes-client-mode) を使用する場合は、追加の Kubernetes リソースをデプロイする必要があります。 詳細については、[Deploy your client application on Kubernetes with `direct-kubernetes` mode](../helm-charts/how-to-deploy-scalardb-cluster.mdx#direct-kubernetes-モードを使用してクライアント-アプリケーションを-kubernetes-にデプロイします) を参照してください。 +[`direct-kubernetes` client mode](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/developer-guide-for-scalardb-cluster-with-java-api#direct-kubernetes-client-mode) を使用する場合は、追加の Kubernetes リソースをデプロイする必要があります。詳細については、[Deploy your client application on Kubernetes with `direct-kubernetes` mode](../helm-charts/how-to-deploy-scalardb-cluster.mdx#direct-kubernetes-モードを使用してクライアント-アプリケーションを-kubernetes-にデプロイします) を参照してください。 ## EKS から ScalarDB Cluster を削除 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDBServerOnAKS.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDBServerOnAKS.mdx index d8fcd074..6d195871 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDBServerOnAKS.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDBServerOnAKS.mdx @@ -3,6 +3,7 @@ tags: - Enterprise Standard - Enterprise Premium - Deprecated +displayed_sidebar: docsJapanese --- # [非推奨] Azure Kubernetes Service (AKS) に ScalarDB Server をデプロイする @@ -13,53 +14,53 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; このガイドでは、ScalarDB Server を Azure Kubernetes Service (AKS) にデプロイする方法について説明します。 -このガイドでは、Azure 環境に次の 2 つの環境のいずれかを作成します。 2 つの環境の違いは、アプリケーションのデプロイをどのように計画するかです。 +このガイドでは、Azure 環境に次の2つの環境のいずれかを作成します。2つの環境の違いは、アプリケーションのデプロイをどのように計画するかです。 -* アプリケーションを ScalarDB Server デプロイメントと同じ AKS クラスターにデプロイします。 この場合、アプリケーションから Scalar Envoy にアクセスするために Azure が提供するロード バランサーを使用する必要はありません。 - - ![image](./images/png/AKS_ScalarDB_Server_App_In_Cluster.drawio.png) +* アプリケーションを ScalarDB Server デプロイメントと同じ AKS クラスターにデプロイします。この場合、アプリケーションから Scalar Envoy にアクセスするために Azure が提供するロードバランサーを使用する必要はありません。 -* ScalarDB Server デプロイを含む AKS クラスターとは異なる環境にアプリケーションをデプロイします。 この場合、アプリケーションから Scalar Envoy にアクセスするには、Azure が提供するロード バランサーを使用する必要があります。 + ![image](./images/png/AKS_ScalarDB_Server_App_In_Cluster.drawio.png) - ![image](./images/png/AKS_ScalarDB_Server_App_Out_Cluster.drawio.png) +* ScalarDB Server デプロイを含む AKS クラスターとは異なる環境にアプリケーションをデプロイします。この場合、アプリケーションから Scalar Envoy にアクセスするには、Azure が提供するロードバランサーを使用する必要があります。 -## ステップ 1. Azure Marketplace で ScalarDB Server にサブスクライブする + ![image](./images/png/AKS_ScalarDB_Server_App_Out_Cluster.drawio.png) -[Azure Marketplace](https://azuremarketplace.microsoft.com/en/marketplace/apps/scalarinc.scalardb) にアクセスし、ScalarDB Server をサブスクライブして、ScalarDB Server コンテナー イメージを取得する必要があります。 Azure Marketplace で ScalarDB Server をサブスクライブする方法の詳細については、[Microsoft Azure Marketplace から Scalar 製品を入手する](AzureMarketplaceGuide.mdx#microsoft-azure-marketplace-から-scalar-製品を入手する) を参照してください。 +## ステップ1. Azure Marketplace で ScalarDB Server にサブスクライブする -## ステップ 2. AKS クラスターを作成する +[Azure Marketplace](https://azuremarketplace.microsoft.com/en/marketplace/apps/scalarinc.scalardb) にアクセスし、ScalarDB Server をサブスクライブして、ScalarDB Server コンテナーイメージを取得する必要があります。Azure Marketplace で ScalarDB Server をサブスクライブする方法の詳細については、[Microsoft Azure Marketplace から Scalar 製品を入手する](AzureMarketplaceGuide.mdx#microsoft-azure-marketplace-から-scalar-製品を入手する)を参照してください。 -ScalarDB Server デプロイ用の AKS クラスターを作成する必要があります。 詳細については、[Scalar 製品用の AKS クラスターを作成するためのガイドライン](CreateAKSClusterForScalarProducts.mdx) を参照してください。 +## ステップ2. AKS クラスターを作成する -## ステップ 3. ScalarDB Server のデータベースをセットアップする +ScalarDB Server デプロイ用の AKS クラスターを作成する必要があります。詳細については、[Scalar 製品用の AKS クラスターを作成するためのガイドライン](CreateAKSClusterForScalarProducts.mdx)を参照してください。 -ScalarDB Server を展開する前にデータベースを準備する必要があります。 ScalarDB がサポートするデータベースのタイプを確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 +## ステップ3. ScalarDB Server のデータベースをセットアップする -データベースのセットアップの詳細については、[Azure での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAzure.mdx) を参照してください。 +ScalarDB Server を展開する前にデータベースを準備する必要があります。ScalarDB がサポートするデータベースのタイプを確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 -## ステップ 4. 要塞サーバーを作成する +データベースのセットアップの詳細については、[Azure での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAzure.mdx)を参照してください。 -AKS 上で ScalarDB Server をデプロイおよび管理するためのいくつかのツールを実行するには、**手順 2** で作成した AKS クラスターの同じ Azure Virtual Networks (VNet) 内に要塞サーバーを準備する必要があります。 詳細については、[要塞サーバーの作成](CreateBastionServer.mdx) を参照してください。 +## ステップ4. 踏み台サーバーを作成する -## ステップ 5. Scalar Helm Chart のカスタム値ファイルを準備する +AKS 上で ScalarDB Server をデプロイおよび管理するためのいくつかのツールを実行するには、**手順2**で作成した AKS クラスターの同じ Azure Virtual Networks (VNet) 内に踏み台サーバーを準備する必要があります。詳細については、[踏み台サーバーの作成](CreateBastionServer.mdx)を参照してください。 -**ステップ 3** で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDB Server の Scalar Helm Chart のカスタム値ファイルを構成する必要があります。 詳細については、[Configure a custom values file of Scalar Helm Chart](../helm-charts/configure-custom-values-file.mdx) を参照してください。 +## ステップ5. Scalar Helm Chart のカスタム値ファイルを準備する -**注:** ScalarDB Server がデプロイされている AKS クラスターとは異なる環境にアプリケーションをデプロイする場合、Scalar Envoy にアクセスするには、`envoy.service.type` パラメーターを `LoadBalancer` に設定する必要があります。 応用。 +**ステップ3**で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDB Server の Scalar Helm Chart のカスタム値ファイルを構成する必要があります。詳細については、[Configure a custom values file of Scalar Helm Chart](../helm-charts/configure-custom-values-file.mdx) を参照してください。 -## ステップ 6. Scalar Helm Chart を使用して ScalarDB Server をデプロイする +**注:** ScalarDB Server がデプロイされている AKS クラスターとは異なる環境にアプリケーションをデプロイする場合、Scalar Envoy にアクセスするには、`envoy.service.type` パラメーターを `LoadBalancer` に設定する必要があります。応用。 -ScalarDB Server の Helm Chart を使用して、AKS クラスターに ScalarDB Server をデプロイします。 詳細については、[Deploy Scalar Products using Scalar Helm Chart](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 +## ステップ6. Scalar Helm Chart を使用して ScalarDB Server をデプロイする + +ScalarDB Server の Helm Chart を使用して、AKS クラスターに ScalarDB Server をデプロイします。詳細については、[Deploy Scalar Products using Scalar Helm Chart](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 **注意:** `kubectl create ns scalardb` コマンドを使用して専用の名前空間を作成し、`helm install` コマンドで `-n scalardb` オプションを使用して名前空間に ScalarDB Server をデプロイすることをお勧めします。 -## ステップ 7. ScalarDB Server デプロイメントのステータスを確認する +## ステップ7. ScalarDB Server デプロイメントのステータスを確認する -ScalarDB Server を AKS クラスターにデプロイした後、各コンポーネントの状態を確認する必要があります。 詳細については、[Kubernetes環境で実行する場合に定期的に確認するコンポーネント](RegularCheck.mdx) を参照してください。 +ScalarDB Server を AKS クラスターにデプロイした後、各コンポーネントの状態を確認する必要があります。詳細については、[Kubernetes 環境で実行する場合に定期的に確認するコンポーネント](RegularCheck.mdx)を参照してください。 -## ステップ 8. ScalarDB Server の展開を監視する +## ステップ8. ScalarDB Server の展開を監視する -ScalarDB Server を AKS クラスターにデプロイした後、特に運用環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。 詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) および[Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx) を参照してください。 +ScalarDB Server を AKS クラスターにデプロイした後、特に運用環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx)および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx)を参照してください。 ## ScalarDB Server を AKS から削除します diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDBServerOnEKS.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDBServerOnEKS.mdx index ee9d3e25..92c7f178 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDBServerOnEKS.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDBServerOnEKS.mdx @@ -3,6 +3,7 @@ tags: - Enterprise Standard - Enterprise Premium - Deprecated +displayed_sidebar: docsJapanese --- # ScalarDB Server を Amazon Elastic Kubernetes Service (EKS) にデプロイする @@ -13,53 +14,53 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; このガイドでは、Amazon Elastic Kubernetes Service (EKS) に ScalarDB Server をデプロイする方法について説明します。 -このガイドでは、AWS 環境に次の 2 つの環境のいずれかを作成します。 2 つの環境の違いは、アプリケーションのデプロイをどのように計画するかです。 +このガイドでは、AWS 環境に次の2つの環境のいずれかを作成します。2つの環境の違いは、アプリケーションのデプロイをどのように計画するかです。 -* アプリケーションを ScalarDB Server デプロイメントと同じ EKS クラスターにデプロイします。 この場合、アプリケーションから Scalar Envoy にアクセスするために AWS が提供するロードバランサーを使用する必要はありません。 +* アプリケーションを ScalarDB Server デプロイメントと同じ EKS クラスターにデプロイします。この場合、アプリケーションから Scalar Envoy にアクセスするために AWS が提供するロードバランサーを使用する必要はありません。 - ![image](./images/png/EKS_ScalarDB_Server_App_In_Cluster.drawio.png) + ![image](./images/png/EKS_ScalarDB_Server_App_In_Cluster.drawio.png) -* ScalarDB Server デプロイメントを含む EKS クラスターとは異なる環境にアプリケーションをデプロイします。 この場合、アプリケーションから Scalar Envoy にアクセスするには、AWS が提供するロードバランサーを使用する必要があります。 +* ScalarDB Server デプロイメントを含む EKS クラスターとは異なる環境にアプリケーションをデプロイします。この場合、アプリケーションから Scalar Envoy にアクセスするには、AWS が提供するロードバランサーを使用する必要があります。 - ![image](./images/png/EKS_ScalarDB_Server_App_Out_Cluster.drawio.png) + ![image](./images/png/EKS_ScalarDB_Server_App_Out_Cluster.drawio.png) -## ステップ 1. AWS Marketplace で ScalarDB Server にサブスクライブする +## ステップ1. AWS Marketplace で ScalarDB Server にサブスクライブする -[AWS Marketplace](https://aws.amazon.com/marketplace/pp/prodview-rzbuhxgvqf4d2) にアクセスし、ScalarDB Server をサブスクライブして、ScalarDB Server コンテナ イメージを取得する必要があります。 AWS Marketplace で ScalarDB Server をサブスクライブする方法の詳細については、[AWS Marketplace から Scalar 製品を購読する](AwsMarketplaceGuide.mdx#aws-marketplace-から-scalar-製品を購読する) を参照してください。 +[AWS Marketplace](https://aws.amazon.com/marketplace/pp/prodview-rzbuhxgvqf4d2) にアクセスし、ScalarDB Server をサブスクライブして、ScalarDB Server コンテナイメージを取得する必要があります。AWS Marketplace で ScalarDB Server をサブスクライブする方法の詳細については、[AWS Marketplace から Scalar 製品を購読する](AwsMarketplaceGuide.mdx#aws-marketplace-から-scalar-製品を購読する)を参照してください。 -## ステップ 2. EKS クラスターを作成する +## ステップ2. EKS クラスターを作成する -ScalarDB Server デプロイメント用の EKS クラスターを作成する必要があります。 詳細については、[Scalar 製品用の Amazon EKS クラスターを作成するためのガイドライン](CreateEKSClusterForScalarProducts.mdx) を参照してください。 +ScalarDB Server デプロイメント用の EKS クラスターを作成する必要があります。詳細については、[Scalar 製品用の Amazon EKS クラスターを作成するためのガイドライン](CreateEKSClusterForScalarProducts.mdx) を参照してください。 -## ステップ 3. ScalarDB Server のデータベースをセットアップする +## ステップ3. ScalarDB Server のデータベースをセットアップする -ScalarDB Server を展開する前にデータベースを準備する必要があります。 ScalarDB がサポートするデータベースのタイプを確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 +ScalarDB Server を展開する前にデータベースを準備する必要があります。ScalarDB がサポートするデータベースのタイプを確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 -データベースのセットアップの詳細については、[AWS での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAWS.mdx) を参照してください。 +データベースのセットアップの詳細については、[AWS での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAWS.mdx)を参照してください。 -## ステップ 4. 要塞サーバーを作成する +## ステップ4. 踏み台サーバーを作成する -EKS 上で ScalarDB Server をデプロイおよび管理するためのいくつかのツールを実行するには、**ステップ 2** で作成した EKS クラスターの同じ Amazon Virtual Private Cloud (VPC) 内に要塞サーバーを準備する必要があります。 詳細については、[要塞サーバーの作成](CreateBastionServer.mdx) を参照してください。 +EKS 上で ScalarDB Server をデプロイおよび管理するためのいくつかのツールを実行するには、**ステップ2**で作成した EKS クラスターの同じ Amazon Virtual Private Cloud (VPC) 内に踏み台サーバーを準備する必要があります。詳細については、[踏み台サーバーの作成](CreateBastionServer.mdx)を参照してください。 -## ステップ 5. Scalar Helm Chartのカスタム値ファイルを準備する +## ステップ5. Scalar Helm Chartのカスタム値ファイルを準備する -**ステップ 3** で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDB Server の Scalar Helm Chartのカスタム値ファイルを構成する必要があります。 詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 +**ステップ3**で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDB Server の Scalar Helm Chartのカスタム値ファイルを構成する必要があります。詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 -**注意:** ScalarDB Server がデプロイされている EKS クラスターとは異なる環境にアプリケーションをデプロイする場合は、`envoy.service.type` パラメーターを `LoadBalancer` に設定して、ユーザーから Scalar Envoy にアクセスする必要があります。 応用。 +**注意:** ScalarDB Server がデプロイされている EKS クラスターとは異なる環境にアプリケーションをデプロイする場合は、`envoy.service.type` パラメーターを `LoadBalancer` に設定して、ユーザーから Scalar Envoy にアクセスする必要があります。応用。 -## ステップ 6. Scalar Helm Chart を使用して ScalarDB Server をデプロイする +## ステップ6. Scalar Helm Chart を使用して ScalarDB Server をデプロイする -ScalarDB Server の Helm Chart を使用して、ScalarDB Server を EKS クラスターにデプロイします。 詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 +ScalarDB Server の Helm Chart を使用して、ScalarDB Server を EKS クラスターにデプロイします。詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 **注意:** `kubectl create ns scalardb` コマンドを使用して専用の名前空間を作成し、`helm install` コマンドで `-n scalardb` オプションを使用して名前空間に ScalarDB Server をデプロイすることをお勧めします。 -## ステップ 7. ScalarDB Server デプロイメントのステータスを確認する +## ステップ7. ScalarDB Server デプロイメントのステータスを確認する -EKS クラスターに ScalarDB Server をデプロイした後、各コンポーネントのステータスを確認する必要があります。 詳細については、[Kubernetes環境で実行する場合に定期的に確認するコンポーネント](RegularCheck.mdx) を参照してください。 +EKS クラスターに ScalarDB Server をデプロイした後、各コンポーネントのステータスを確認する必要があります。詳細については、[Kubernetes環境で実行する場合に定期的に確認するコンポーネント](RegularCheck.mdx)を参照してください。 -## ステップ 8. ScalarDB Server の展開を監視する +## ステップ8. ScalarDB Server の展開を監視する -EKS クラスターに ScalarDB Server をデプロイした後、特に本番環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。 詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx) を参照してください。 +EKS クラスターに ScalarDB Server をデプロイした後、特に本番環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx)および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx)を参照してください。 ## ScalarDB Server を EKS から削除する diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDLAuditorOnAKS.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDLAuditorOnAKS.mdx index 3cba2672..936b1ad0 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDLAuditorOnAKS.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDLAuditorOnAKS.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsJapanese --- # ScalarDL Ledger と ScalarDL Auditor を Azure Kubernetes Service (AKS) にデプロイする @@ -9,93 +10,93 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; このガイドでは、Azure Kubernetes Service (AKS) に ScalarDL Ledger と ScalarDL Auditor をデプロイする方法について説明します。 -このガイドでは、Azure 環境に次の 3 つの環境のいずれかを作成します。 ビザンチン障害検出を適切に機能させるには、ScalarDL Ledger と ScalarDL Auditor を異なる管理ドメイン (つまり、別の環境) に展開することをお勧めします。 +このガイドでは、Azure 環境に次の3つの環境のいずれかを作成します。ビザンチン障害検出を適切に機能させるには、ScalarDL Ledger と ScalarDL Auditor を異なる管理ドメイン (つまり、別の環境) に展開することをお勧めします。 * 別の Azure アカウントを使用する (最も推奨される方法) ![image](./images/png/AKS_ScalarDL_Auditor_Multi_Account.drawio.png) -* 別の Azure Virtual Networks (VNet) を使用する (2 番目に推奨される方法) +* 別の Azure Virtual Networks (VNet) を使用する (2番目に推奨される方法) ![image](./images/png/AKS_ScalarDL_Auditor_Multi_VNet.drawio.png) -* 異なる名前空間を使用する (3 番目に推奨される方法) +* 異なる名前空間を使用する (3番目に推奨される方法) ![image](./images/png/AKS_ScalarDL_Auditor_Multi_Namespace.drawio.png) -**注意:** このガイドは、2 番目に推奨される方法「別の VNet を使用する」に従います。 +**注意:** このガイドは、2番目に推奨される方法「別の VNet を使用する」に従います。 -## ステップ 1. ScalarDL Ledger および ScalarDL Auditor コンテナー イメージを取得する +## ステップ1. ScalarDL Ledger および ScalarDL Auditor コンテナーイメージを取得する -ScalarDL Ledger および ScalarDL Auditor コンテナー イメージを取得する必要があります。 Scalar 製品のコンテナ リポジトリの詳細については、[Scalar 製品のコンテナ イメージを取得する方法](HowToGetContainerImages.mdx) を参照してください。 +ScalarDL Ledger および ScalarDL Auditor コンテナーイメージを取得する必要があります。Scalar 製品のコンテナリポジトリの詳細については、[Scalar 製品のコンテナイメージを取得する方法](HowToGetContainerImages.mdx)を参照してください。 -## ステップ 2. ScalarDL Ledger の AKS クラスターを作成する +## ステップ2. ScalarDL Ledger の AKS クラスターを作成する -ScalarDL Ledger デプロイ用の AKS クラスターを作成する必要があります。 詳細については、[Scalar 製品用の AKS クラスターを作成するためのガイドライン](CreateAKSClusterForScalarProducts.mdx) を参照してください。 +ScalarDL Ledger デプロイ用の AKS クラスターを作成する必要があります。詳細については、[Scalar 製品用の AKS クラスターを作成するためのガイドライン](CreateAKSClusterForScalarProducts.mdx)を参照してください。 -## ステップ 3. ScalarDL Auditor の AKS クラスターを作成する +## ステップ3. ScalarDL Auditor の AKS クラスターを作成する -ScalarDL Auditor デプロイ用の AKS クラスターも作成する必要があります。 詳細については、[Scalar 製品用の AKS クラスターを作成するためのガイドライン](CreateAKSClusterForScalarProducts.mdx) を参照してください。 +ScalarDL Auditor デプロイ用の AKS クラスターも作成する必要があります。詳細については、[Scalar 製品用の AKS クラスターを作成するためのガイドライン](CreateAKSClusterForScalarProducts.mdx)を参照してください。 -## ステップ 4. ScalarDL Ledger のデータベースをセットアップする +## ステップ4. ScalarDL Ledger のデータベースをセットアップする -ScalarDL Ledger を展開する前にデータベースを準備する必要があります。 ScalarDL Ledger は内部で ScalarDB を使用してデータベースにアクセスするため、ScalarDB がサポートするデータベースの種類を確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 +ScalarDL Ledger を展開する前にデータベースを準備する必要があります。ScalarDL Ledger は内部で ScalarDB を使用してデータベースにアクセスするため、ScalarDB がサポートするデータベースの種類を確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 -データベースのセットアップの詳細については、[Azure での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAzure.mdx) を参照してください。 +データベースのセットアップの詳細については、[Azure での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAzure.mdx)を参照してください。 -## ステップ 5. ScalarDL Auditor のデータベースをセットアップする +## ステップ5. ScalarDL Auditor のデータベースをセットアップする -ScalarDL Auditor を展開する前にデータベースを準備する必要もあります。 ScalarDL Auditor は内部で ScalarDB を使用してデータベースにアクセスするため、ScalarDB がサポートするデータベースの種類を確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 +ScalarDL Auditor を展開する前にデータベースを準備する必要もあります。ScalarDL Auditor は内部で ScalarDB を使用してデータベースにアクセスするため、ScalarDB がサポートするデータベースの種類を確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 -データベースのセットアップの詳細については、[Azure での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAzure.mdx) を参照してください。 +データベースのセットアップの詳細については、[Azure での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAzure.mdx)を参照してください。 -## ステップ 6. ScalarDL Ledger の要塞サーバーを作成する +## ステップ6. ScalarDL Ledger の踏み台サーバーを作成する -AKS で ScalarDL Ledger をデプロイおよび管理するためのいくつかのツールを実行するには、**手順 2** で作成した AKS クラスターの同じ VNet に要塞サーバーを準備する必要があります。 詳細については、[要塞サーバーの作成](CreateBastionServer.mdx) を参照してください。 +AKS で ScalarDL Ledger をデプロイおよび管理するためのいくつかのツールを実行するには、**手順2**で作成した AKS クラスターの同じ VNet に踏み台サーバーを準備する必要があります。詳細については、[踏み台サーバーの作成](CreateBastionServer.mdx)を参照してください。 -## ステップ 7. ScalarDL Auditor の要塞サーバーを作成する +## ステップ7. ScalarDL Auditor の踏み台サーバーを作成する -AKS で ScalarDL Auditor をデプロイおよび管理するためのいくつかのツールを実行するには、**手順 3** で作成した AKS クラスターの同じ VNet に要塞サーバーを準備する必要があります。 詳細については、[要塞サーバーの作成](CreateBastionServer.mdx) を参照してください。 +AKS で ScalarDL Auditor をデプロイおよび管理するためのいくつかのツールを実行するには、**手順3**で作成した AKS クラスターの同じ VNet に踏み台サーバーを準備する必要があります。詳細については、[踏み台サーバーの作成](CreateBastionServer.mdx)を参照してください。 -## ステップ 8. 2 つの AKS クラスター間のネットワーク ピアリングを作成する +## ステップ8. 2つの AKS クラスター間のネットワークピアリングを作成する -ScalarDL を適切に動作させるには、ScalarDL Ledger と ScalarDL Auditor が相互に接続する必要があります。 [仮想ネットワーク ピアリング](https://docs.microsoft.com/en-us/azure/virtual-network/virtual-network-peering-overview) を使用して 2 つの VNet を接続する必要があります。 詳細については、[ScalarDL Auditor モードのネットワーク ピアリングの構成](NetworkPeeringForScalarDLAuditor.mdx) を参照してください。 +ScalarDL を適切に動作させるには、ScalarDL Ledger と ScalarDL Auditor が相互に接続する必要があります。[仮想ネットワークピアリング](https://docs.microsoft.com/en-us/azure/virtual-network/virtual-network-peering-overview)を使用して2つの VNet を接続する必要があります。詳細については、[ScalarDL Auditor モードのネットワークピアリングの構成](NetworkPeeringForScalarDLAuditor.mdx)を参照してください。 -## ステップ 9. ScalarDL Ledger と ScalarDL Schema Loader の両方の Scalar Helm Chart のカスタム値ファイルを準備する +## ステップ9. ScalarDL Ledger と ScalarDL Schema Loader の両方の Scalar Helm Chart のカスタム値ファイルを準備する -**ステップ 4** で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDL Ledger と ScalarDL Schema Loader (Ledger 用) の両方の Scalar Helm Chart のカスタム値ファイルを構成する必要があります。 詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx を参照してください。 +**ステップ4**で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDL Ledger と ScalarDL Schema Loader (Ledger 用) の両方の Scalar Helm Chart のカスタム値ファイルを構成する必要があります。詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx を参照してください。 -## ステップ 10. Scalar Helm Chart を使用して ScalarDL Ledger をデプロイする +## ステップ10. Scalar Helm Chart を使用して ScalarDL Ledger をデプロイする -ScalarDL Ledger の Helm Chart を使用して、ScalarDL Ledger を AKS クラスターにデプロイします。 詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 +ScalarDL Ledger の Helm Chart を使用して、ScalarDL Ledger を AKS クラスターにデプロイします。詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 **注意:** `kubectl create ns scalardl-ledger` コマンドを使用して専用の名前空間を作成し、`helm install` コマンドで `-n scalardl-ledger` オプションを使用して名前空間に ScalarDL Ledger をデプロイすることをお勧めします。 -## ステップ 11. ScalarDL Auditor と ScalarDL Schema Loader の両方の Scalar Helm Chart のカスタム値ファイルを準備する +## ステップ11. ScalarDL Auditor と ScalarDL Schema Loader の両方の Scalar Helm Chart のカスタム値ファイルを準備する -**ステップ 5** で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDL Auditor と ScalarDL Schema Loader (Auditor 用) の両方の Scalar Helm Chart のカスタム値ファイルを構成する必要もあります 。 詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 +**ステップ5**で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDL Auditor と ScalarDL Schema Loader (Auditor 用) の両方の Scalar Helm Chart のカスタム値ファイルを構成する必要もあります 。詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 -## ステップ 12. Scalar Helm Chart を使用して ScalarDL Auditor をデプロイする +## ステップ12. Scalar Helm Chart を使用して ScalarDL Auditor をデプロイする -ScalarDL Auditor の Helm Chart を使用して、AKS クラスターに ScalarDL Auditor をデプロイします。 詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 +ScalarDL Auditor の Helm Chart を使用して、AKS クラスターに ScalarDL Auditor をデプロイします。詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 **注意:** `kubectl create ns scalardl-auditor` コマンドを使用して専用の名前空間を作成し、`helm install` コマンドで `-n scalardl-auditor` オプションを使用して名前空間に ScalarDL Auditor をデプロイすることをお勧めします。 -## ステップ 13. ScalarDL Ledger 導入のステータスを確認する +## ステップ13. ScalarDL Ledger 導入のステータスを確認する -ScalarDL Ledger を AKS クラスターにデプロイした後、各コンポーネントの状態を確認する必要があります。 詳細については、[Kubernetes環境で実行する場合に定期的に確認するコンポーネント](RegularCheck.mdx) を参照してください。 +ScalarDL Ledger を AKS クラスターにデプロイした後、各コンポーネントの状態を確認する必要があります。詳細については、[Kubernetes環境で実行する場合に定期的に確認するコンポーネント](RegularCheck.mdx)を参照してください。 -## ステップ 14. ScalarDL Auditor デプロイメントのステータスを確認する +## ステップ14. ScalarDL Auditor デプロイメントのステータスを確認する -ScalarDL Auditor を AKS クラスターにデプロイした後、各コンポーネントの状態を確認する必要があります。 詳細については、[Kubernetes環境で実行する場合に定期的に確認するコンポーネント](RegularCheck.mdx) を参照してください。 +ScalarDL Auditor を AKS クラスターにデプロイした後、各コンポーネントの状態を確認する必要があります。詳細については、[Kubernetes環境で実行する場合に定期的に確認するコンポーネント](RegularCheck.mdx)を参照してください。 -## ステップ 15. ScalarDL Ledger の展開を監視する +## ステップ15. ScalarDL Ledger の展開を監視する -AKS クラスターに ScalarDL Ledger をデプロイした後、特に運用環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。 詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx) を参照してください。 +AKS クラスターに ScalarDL Ledger をデプロイした後、特に運用環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx)および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx)を参照してください。 -## ステップ 16. ScalarDL Auditor の展開を監視する +## ステップ16. ScalarDL Auditor の展開を監視する -AKS クラスターに ScalarDL Auditor をデプロイした後、特に運用環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。 詳細については、[Kubernetes クラスター上の Scalar 製品の監視(./K8sMonitorGuide.mdx) および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx) を参照してください。 +AKS クラスターに ScalarDL Auditor をデプロイした後、特に運用環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。詳細については、[Kubernetes クラスター上の Scalar 製品の監視](./K8sMonitorGuide.mdx)および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx)を参照してください。 ## ScalarDL Ledger と ScalarDL Auditor を AKS から削除します diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDLAuditorOnEKS.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDLAuditorOnEKS.mdx index b49bd983..bba0b37d 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDLAuditorOnEKS.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDLAuditorOnEKS.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsJapanese --- # ScalarDL Ledger と ScalarDL Auditor を Amazon Elastic Kubernetes Service (EKS) にデプロイする @@ -9,93 +10,93 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; このガイドでは、ScalarDL Ledger と ScalarDL Auditor を Amazon Elastic Kubernetes Service (EKS) にデプロイする方法について説明します。 -このガイドでは、AWS 環境に次の 3 つの環境のいずれかを作成します。 ビザンチン障害検出を適切に機能させるには、ScalarDL Ledger と ScalarDL Auditor を異なる管理ドメイン (つまり、別の環境) に展開することをお勧めします。 +このガイドでは、AWS 環境に次の3つの環境のいずれかを作成します。ビザンチン障害検出を適切に機能させるには、ScalarDL Ledger と ScalarDL Auditor を異なる管理ドメイン (つまり、別の環境) に展開することをお勧めします。 * 別の AWS アカウントを使用する (最も推奨される方法) ![image](./images/png/EKS_ScalarDL_Auditor_Multi_Account.drawio.png) -* 異なる Amazon Virtual Private Cloud (VPC) を使用する (2 番目に推奨される方法) +* 異なる Amazon Virtual Private Cloud (VPC) を使用する (2番目に推奨される方法) ![image](./images/png/EKS_ScalarDL_Auditor_Multi_VPC.drawio.png) -* 異なる名前空間を使用する (3 番目に推奨される方法) +* 異なる名前空間を使用する (3番目に推奨される方法) ![image](./images/png/EKS_ScalarDL_Auditor_Multi_Namespace.drawio.png) -**注記:** このガイドは、2 番目に推奨される方法「別の VPC を使用する」に従います。 +**注記:** このガイドは、2番目に推奨される方法「別の VPC を使用する」に従います。 -## ステップ 1. AWS Marketplace で ScalarDL Ledger と ScalarDL Auditor を購読する +## ステップ1. AWS Marketplace で ScalarDL Ledger と ScalarDL Auditor を購読する -[AWS Marketplace](https://aws.amazon.com/marketplace/seller-profile?id=bd4cd7de-49cd-433f-97ba-5cf71d76ec7b) から ScalarDL Ledger および ScalarDL Auditor コンテナ イメージを取得し、ScalarDL Ledger および ScalarDL Auditor をサブスクライブする必要があります。 AWS Marketplace で ScalarDL Ledger および ScalarDL Auditor を購読する方法の詳細については、[AWS Marketplace から Scalar 製品を購読する](AwsMarketplaceGuide.mdx#aws-marketplace-から-scalar-製品を購読する) を参照してください。 +[AWS Marketplace](https://aws.amazon.com/marketplace/seller-profile?id=bd4cd7de-49cd-433f-97ba-5cf71d76ec7b) から ScalarDL Ledger および ScalarDL Auditor コンテナイメージを取得し、ScalarDL Ledger および ScalarDL Auditor をサブスクライブする必要があります。AWS Marketplace で ScalarDL Ledger および ScalarDL Auditor を購読する方法の詳細については、[AWS Marketplace から Scalar 製品を購読する](AwsMarketplaceGuide.mdx#aws-marketplace-から-scalar-製品を購読する)を参照してください。 -## ステップ 2. ScalarDL Ledger の EKS クラスターを作成する +## ステップ2. ScalarDL Ledger の EKS クラスターを作成する -ScalarDL Ledger デプロイメント用の EKS クラスターを作成する必要があります。 詳細については、[Scalar 製品用の Amazon EKS クラスターを作成するためのガイドライン](CreateEKSClusterForScalarProducts.mdx) を参照してください。 +ScalarDL Ledger デプロイメント用の EKS クラスターを作成する必要があります。詳細については、[Scalar 製品用の Amazon EKS クラスターを作成するためのガイドライン](CreateEKSClusterForScalarProducts.mdx)を参照してください。 -## ステップ 3. ScalarDL Auditor 用の EKS クラスターを作成する +## ステップ3. ScalarDL Auditor 用の EKS クラスターを作成する -ScalarDL Auditor デプロイメント用の EKS クラスターも作成する必要があります。 詳細については、[Scalar 製品用の Amazon EKS クラスターを作成するためのガイドライン](CreateEKSClusterForScalarProducts.mdx) を参照してください。 +ScalarDL Auditor デプロイメント用の EKS クラスターも作成する必要があります。詳細については、[Scalar 製品用の Amazon EKS クラスターを作成するためのガイドライン](CreateEKSClusterForScalarProducts.mdx)を参照してください。 -## ステップ 4. ScalarDL Ledger のデータベースをセットアップする +## ステップ4. ScalarDL Ledger のデータベースをセットアップする -ScalarDL Ledger を展開する前にデータベースを準備する必要があります。 ScalarDL Ledger は内部で ScalarDB を使用してデータベースにアクセスするため、ScalarDB がサポートするデータベースの種類を確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 +ScalarDL Ledger を展開する前にデータベースを準備する必要があります。ScalarDL Ledger は内部で ScalarDB を使用してデータベースにアクセスするため、ScalarDB がサポートするデータベースの種類を確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 -データベースのセットアップの詳細については、[AWS での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAWS.mdx) を参照してください。 +データベースのセットアップの詳細については、[AWS での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAWS.mdx)を参照してください。 -## ステップ 5. ScalarDL Auditor のデータベースをセットアップする +## ステップ5. ScalarDL Auditor のデータベースをセットアップする -ScalarDL Auditor を展開する前にデータベースを準備する必要もあります。 ScalarDL Auditor は内部で ScalarDB を使用してデータベースにアクセスするため、ScalarDB がサポートするデータベースの種類を確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 +ScalarDL Auditor を展開する前にデータベースを準備する必要もあります。ScalarDL Auditor は内部で ScalarDB を使用してデータベースにアクセスするため、ScalarDB がサポートするデータベースの種類を確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 -データベースのセットアップの詳細については、[AWS での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAWS.mdx) を参照してください。 +データベースのセットアップの詳細については、[AWS での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAWS.mdx)を参照してください。 -## ステップ 6. ScalarDL Ledger の要塞サーバーを作成する +## ステップ6. ScalarDL Ledger の踏み台サーバーを作成する -EKS 上で ScalarDL Ledger をデプロイおよび管理するためのいくつかのツールを実行するには、**ステップ 2** で作成した EKS クラスターの同じ VPC 内に要塞サーバーを準備する必要があります。 詳細については、[要塞サーバーの作成](CreateBastionServer.mdx) を参照してください。 +EKS 上で ScalarDL Ledger をデプロイおよび管理するためのいくつかのツールを実行するには、**ステップ2**で作成した EKS クラスターの同じ VPC 内に踏み台サーバーを準備する必要があります。詳細については、[踏み台サーバーの作成](CreateBastionServer.mdx)を参照してください。 -## ステップ 7. ScalarDL Auditor の要塞サーバーを作成する +## ステップ7. ScalarDL Auditor の踏み台サーバーを作成する -EKS 上で ScalarDL Auditor をデプロイおよび管理するためのいくつかのツールを実行するには、**ステップ 3** で作成した EKS クラスターの同じ VPC 内に要塞サーバーを準備する必要があります。 詳細については、[要塞サーバーの作成](CreateBastionServer.mdx) を参照してください。 +EKS 上で ScalarDL Auditor をデプロイおよび管理するためのいくつかのツールを実行するには、**ステップ3**で作成した EKS クラスターの同じ VPC 内に踏み台サーバーを準備する必要があります。詳細については、[踏み台サーバーの作成](CreateBastionServer.mdx)を参照してください。 -## ステップ 8. 2 つの EKS クラスター間のネットワーク ピアリングを作成する +## ステップ8. 2つの EKS クラスター間のネットワークピアリングを作成する -ScalarDL を適切に動作させるには、ScalarDL Ledger と ScalarDL Auditor が相互に接続する必要があります。 [VPC peering](https://docs.aws.amazon.com/vpc/latest/peering/create-vpc-peering-connection.html) を使用して 2 つの VPC を接続する必要があります。 詳細については、[ScalarDL Auditor モードのネットワーク ピアリングの構成](NetworkPeeringForScalarDLAuditor.mdx) を参照してください。 +ScalarDL を適切に動作させるには、ScalarDL Ledger と ScalarDL Auditor が相互に接続する必要があります。[VPC peering](https://docs.aws.amazon.com/vpc/latest/peering/create-vpc-peering-connection.html) を使用して2つの VPC を接続する必要があります。詳細については、[ScalarDL Auditor モードのネットワークピアリングの構成](NetworkPeeringForScalarDLAuditor.mdx)を参照してください。 -## ステップ 9. ScalarDL Ledger および ScalarDL Schema Loader の Scalar Helm Chart のカスタム値ファイルを準備する +## ステップ9. ScalarDL Ledger および ScalarDL Schema Loader の Scalar Helm Chart のカスタム値ファイルを準備する -**ステップ 4** で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDL Ledger および ScalarDL Schema Loader (Ledger 用) の Scalar Helm Chart のカスタム値ファイルを構成する必要があります。 詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 +**ステップ4**で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDL Ledger および ScalarDL Schema Loader (Ledger 用) の Scalar Helm Chart のカスタム値ファイルを構成する必要があります。詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 -## ステップ 10. Scalar Helm Chart を使用して ScalarDL Ledger をデプロイする +## ステップ10. Scalar Helm Chart を使用して ScalarDL Ledger をデプロイする -ScalarDL Ledger の Helm Chart を使用して、ScalarDL Ledger を EKS クラスターにデプロイします。 詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 +ScalarDL Ledger の Helm Chart を使用して、ScalarDL Ledger を EKS クラスターにデプロイします。詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 **注記:** `kubectl create ns scalardl-ledger` コマンドを使用して専用の名前空間を作成し、`helm install` コマンドで `-n scalardl-ledger` オプションを使用して名前空間に ScalarDL Ledger をデプロイすることをお勧めします。 -## ステップ 11. ScalarDL Auditor と ScalarDL Schema Loader の両方の Scalar Helm Chart のカスタム値ファイルを準備する +## ステップ11. ScalarDL Auditor と ScalarDL Schema Loader の両方の Scalar Helm Chart のカスタム値ファイルを準備する -**ステップ 5** で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDL Auditor と ScalarDL Schema Loader (Auditor 用) の両方の Scalar Helm Chart のカスタム値ファイルを構成する必要があります。 詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 +**ステップ5**で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDL Auditor と ScalarDL Schema Loader (Auditor 用) の両方の Scalar Helm Chart のカスタム値ファイルを構成する必要があります。詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 -## ステップ 12. Scalar Helm Chart を使用して ScalarDL Auditor をデプロイする +## ステップ12. Scalar Helm Chart を使用して ScalarDL Auditor をデプロイする -ScalarDL Auditor の Helm Chart を使用して、ScalarDL Auditor を EKS クラスターにデプロイします。 詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 +ScalarDL Auditor の Helm Chart を使用して、ScalarDL Auditor を EKS クラスターにデプロイします。詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 **注記:** `kubectl create ns scalardl-auditor` コマンドを使用して専用の名前空間を作成し、`helm install` コマンドで `-n scalardl-auditor` オプションを使用して名前空間に ScalarDL Auditor をデプロイすることをお勧めします。 -## ステップ 13. ScalarDL Ledger 導入のステータスを確認する +## ステップ13. ScalarDL Ledger 導入のステータスを確認する -EKS クラスターに ScalarDL Ledger をデプロイした後、各コンポーネントのステータスを確認する必要があります。 詳細については、[Kubernetes環境で実行する場合に定期的に確認するコンポーネント](RegularCheck.mdx) を参照してください。 +EKS クラスターに ScalarDL Ledger をデプロイした後、各コンポーネントのステータスを確認する必要があります。詳細については、[Kubernetes環境で実行する場合に定期的に確認するコンポーネント](RegularCheck.mdx)を参照してください。 -## ステップ 14. ScalarDL Auditor デプロイメントのステータスを確認する +## ステップ14. ScalarDL Auditor デプロイメントのステータスを確認する -EKS クラスターに ScalarDL Auditor をデプロイした後、各コンポーネントのステータスを確認する必要があります。 詳細については、[Kubernetes 環境で実行するときに定期的に確認するコンポーネント](RegularCheck.mdx) を参照してください。 +EKS クラスターに ScalarDL Auditor をデプロイした後、各コンポーネントのステータスを確認する必要があります。詳細については、[Kubernetes 環境で実行するときに定期的に確認するコンポーネント](RegularCheck.mdx)を参照してください。 -## ステップ 15. ScalarDL Ledger の展開を監視する +## ステップ15. ScalarDL Ledger の展開を監視する -EKS クラスターに ScalarDL Ledger をデプロイした後、特に本番環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。 詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx) を参照してください。 +EKS クラスターに ScalarDL Ledger をデプロイした後、特に本番環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx)および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx)を参照してください。 -## ステップ 16. ScalarDL Auditor の展開を監視する +## ステップ16. ScalarDL Auditor の展開を監視する -EKS クラスターに ScalarDL Auditor をデプロイした後、特に運用環境で、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。 詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx) を参照してください。 +EKS クラスターに ScalarDL Auditor をデプロイした後、特に運用環境で、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx)および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx)を参照してください。 ## EKS から ScalarDL Ledger と ScalarDL Auditor を削除 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDLOnAKS.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDLOnAKS.mdx index 06762f9b..4742c5f5 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDLOnAKS.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDLOnAKS.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsJapanese --- # Azure Kubernetes Service (AKS) に ScalarDL Ledger をデプロイする @@ -13,41 +14,41 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; ![image](./images/png/AKS_ScalarDL_Ledger.drawio.png) -## ステップ 1. ScalarDL Ledger コンテナー イメージを取得する +## ステップ1. ScalarDL Ledger コンテナーイメージを取得する -ScalarDL Ledger コンテナー イメージを取得する必要があります。 Scalar 製品のコンテナ リポジトリの詳細については、[Scalar 製品のコンテナ イメージを取得する方法](HowToGetContainerImages.mdx) を参照してください。 +ScalarDL Ledger コンテナーイメージを取得する必要があります。Scalar 製品のコンテナリポジトリの詳細については、[Scalar 製品のコンテナイメージを取得する方法](HowToGetContainerImages.mdx)を参照してください。 -## ステップ 2. AKS クラスターを作成する +## ステップ2. AKS クラスターを作成する -ScalarDL Ledger デプロイ用の AKS クラスターを作成する必要があります。 詳細については、[Scalar 製品用の AKS クラスターを作成するためのガイドライン](CreateAKSClusterForScalarProducts.mdx) を参照してください。 +ScalarDL Ledger デプロイ用の AKS クラスターを作成する必要があります。詳細については、[Scalar 製品用の AKS クラスターを作成するためのガイドライン](CreateAKSClusterForScalarProducts.mdx)を参照してください。 -## ステップ 3. ScalarDL Ledger のデータベースをセットアップする +## ステップ3. ScalarDL Ledger のデータベースをセットアップする -ScalarDL Ledger を展開する前にデータベースを準備する必要があります。 ScalarDL Ledger は内部で ScalarDB を使用してデータベースにアクセスするため、ScalarDB がサポートするデータベースの種類を確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 +ScalarDL Ledger を展開する前にデータベースを準備する必要があります。ScalarDL Ledger は内部で ScalarDB を使用してデータベースにアクセスするため、ScalarDB がサポートするデータベースの種類を確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 データベースのセットアップの詳細については、[Azure での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAzure.mdx) を参照してください。 -## ステップ 4. 要塞サーバーを作成する +## ステップ4. 踏み台サーバーを作成する -AKS で ScalarDL Ledger をデプロイおよび管理するためのいくつかのツールを実行するには、**手順 2** で作成した AKS クラスターの同じ Azure Virtual Network (VNet) 内に要塞サーバーを準備する必要があります。 詳細については、[要塞サーバーの作成](CreateBastionServer.mdx) を参照してください。 +AKS で ScalarDL Ledger をデプロイおよび管理するためのいくつかのツールを実行するには、**手順2**で作成した AKS クラスターの同じ Azure Virtual Network (VNet) 内に踏み台サーバーを準備する必要があります。詳細については、[踏み台サーバーの作成](CreateBastionServer.mdx)を参照してください。 -## ステップ 5. ScalarDL Ledger と ScalarDL Schema Loader の両方の Scalar Helm Chart のカスタム値ファイルを準備する +## ステップ5. ScalarDL Ledger と ScalarDL Schema Loader の両方の Scalar Helm Chart のカスタム値ファイルを準備する -**ステップ 3** で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDL Ledger と ScalarDL Schema Loader (Ledger 用) の両方の Scalar Helm Chart のカスタム値ファイルを構成する必要があります。 詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 +**ステップ3**で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDL Ledger と ScalarDL Schema Loader (Ledger 用) の両方の Scalar Helm Chart のカスタム値ファイルを構成する必要があります。詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 -## ステップ 6. Scalar Helm Chart を使用して ScalarDL Ledger をデプロイする +## ステップ6. Scalar Helm Chart を使用して ScalarDL Ledger をデプロイする -ScalarDL Ledger の Helm Chart を使用して、AKS クラスターに ScalarDL Ledger をデプロイします。 詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 +ScalarDL Ledger の Helm Chart を使用して、AKS クラスターに ScalarDL Ledger をデプロイします。詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 **注記:** `kubectl create ns scalardl-ledger` コマンドを使用して専用の名前空間を作成し、`helm install` コマンドで `-n scalardl-ledger` オプションを使用して名前空間に ScalarDL Ledger をデプロイすることをお勧めします。 -## ステップ 7. ScalarDL Ledger 導入のステータスを確認する +## ステップ7. ScalarDL Ledger 導入のステータスを確認する -ScalarDL Ledger を AKS クラスターにデプロイした後、各コンポーネントの状態を確認する必要があります。 詳細については、[Kubernetes環境で実行する場合に定期的に確認するコンポーネント](RegularCheck.mdx) を参照してください。 +ScalarDL Ledger を AKS クラスターにデプロイした後、各コンポーネントの状態を確認する必要があります。詳細については、[Kubernetes環境で実行する場合に定期的に確認するコンポーネント](RegularCheck.mdx)を参照してください。 -## ステップ 8. ScalarDL Ledger の展開を監視する +## ステップ8. ScalarDL Ledger の展開を監視する -AKS クラスターに ScalarDL Ledger をデプロイした後、特に運用環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。 詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx) を参照してください。 +AKS クラスターに ScalarDL Ledger をデプロイした後、特に運用環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx)および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx)を参照してください。 ## ScalarDL Ledger を AKS から削除する diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDLOnEKS.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDLOnEKS.mdx index 37f1c047..6891f2ac 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDLOnEKS.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDLOnEKS.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsJapanese --- # ScalarDL Ledger を Amazon Elastic Kubernetes Service (EKS) にデプロイする @@ -13,41 +14,41 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; ![image](./images/png/EKS_ScalarDL_Ledger.drawio.png) -## ステップ 1. AWS Marketplace で ScalarDL Ledger を購読する +## ステップ1. AWS Marketplace で ScalarDL Ledger を購読する -[AWS Marketplace](https://aws.amazon.com/marketplace/pp/prodview-3jdwfmqonx7a2) から ScalarDL Ledger コンテナ イメージを取得し、ScalarDL にサブスクライブする必要があります。 AWS Marketplace で ScalarDL Ledger を購読する方法の詳細については、[AWS Marketplace から Scalar 製品を購読する](AwsMarketplaceGuide.mdx#aws-marketplace-から-scalar-製品を購読する) を参照してください。 +[AWS Marketplace](https://aws.amazon.com/marketplace/pp/prodview-3jdwfmqonx7a2) から ScalarDL Ledger コンテナイメージを取得し、ScalarDL にサブスクライブする必要があります。AWS Marketplace で ScalarDL Ledger を購読する方法の詳細については、[AWS Marketplace から Scalar 製品を購読する](AwsMarketplaceGuide.mdx#aws-marketplace-から-scalar-製品を購読する)を参照してください。 -## ステップ 2. EKS クラスターを作成する +## ステップ2. EKS クラスターを作成する -ScalarDL Ledger デプロイメント用の EKS クラスターを作成する必要があります。 詳細については、[Scalar 製品用の Amazon EKS クラスターを作成するためのガイドライン](CreateEKSClusterForScalarProducts.mdx) を参照してください。 +ScalarDL Ledger デプロイメント用の EKS クラスターを作成する必要があります。詳細については、[Scalar 製品用の Amazon EKS クラスターを作成するためのガイドライン](CreateEKSClusterForScalarProducts.mdx)を参照してください。 -## ステップ 3. ScalarDL Ledger のデータベースをセットアップする +## ステップ3. ScalarDL Ledger のデータベースをセットアップする -ScalarDL Ledger を展開する前にデータベースを準備する必要があります。 ScalarDL Ledger は内部で ScalarDB を使用してデータベースにアクセスするため、ScalarDB がサポートするデータベースの種類を確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 +ScalarDL Ledger を展開する前にデータベースを準備する必要があります。ScalarDL Ledger は内部で ScalarDB を使用してデータベースにアクセスするため、ScalarDB がサポートするデータベースの種類を確認するには、[ScalarDB Supported Databases](https://scalardb.scalar-labs.com/docs/latest/requirements#databases) を参照してください。 -データベースのセットアップの詳細については、[AWS での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAWS.mdx) を参照してください。 +データベースのセットアップの詳細については、[AWS での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ](SetupDatabaseForAWS.mdx)を参照してください。 -## ステップ 4. 要塞サーバーを作成する +## ステップ4. 踏み台サーバーを作成する -EKS で ScalarDL Ledger をデプロイおよび管理するためのいくつかのツールを実行するには、**ステップ 2** で作成した EKS クラスターの同じ Amazon Virtual Private Cloud (VPC) 内に要塞サーバーを準備する必要があります。 詳細については、[要塞サーバーの作成](CreateBastionServer.mdx) を参照してください。 +EKS で ScalarDL Ledger をデプロイおよび管理するためのいくつかのツールを実行するには、**ステップ2**で作成した EKS クラスターの同じ Amazon Virtual Private Cloud (VPC) 内に踏み台サーバーを準備する必要があります。詳細については、[踏み台サーバーの作成](CreateBastionServer.mdx)を参照してください。 -## ステップ 5. ScalarDL Ledger と ScalarDL Schema Loader の両方の Scalar Helm Chart のカスタム値ファイルを準備する +## ステップ5. ScalarDL Ledger と ScalarDL Schema Loader の両方の Scalar Helm Chart のカスタム値ファイルを準備する -**ステップ 3** で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDL Ledger と ScalarDL Schema Loader (Ledger 用) の両方の Scalar Helm Chart のカスタム値ファイルを構成する必要があります。 詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 +**ステップ3**で作成したデータベース内の情報へのアクセスなどのタスクを実行するには、環境に基づいて ScalarDL Ledger と ScalarDL Schema Loader (Ledger 用) の両方の Scalar Helm Chart のカスタム値ファイルを構成する必要があります。詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 -## ステップ 6. Scalar Helm Chart を使用して ScalarDL Ledger をデプロイする +## ステップ6. Scalar Helm Chart を使用して ScalarDL Ledger をデプロイする -ScalarDL Ledger の Helm Chart を使用して、ScalarDL Ledger を EKS クラスターにデプロイします。 詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 +ScalarDL Ledger の Helm Chart を使用して、ScalarDL Ledger を EKS クラスターにデプロイします。詳細については、[Deploy Scalar products using Scalar Helm Charts](../helm-charts/how-to-deploy-scalar-products.mdx) を参照してください。 **注記:** `kubectl create ns scalardl-ledger` コマンドを使用して専用の名前空間を作成し、`helm install` コマンドで `-n scalardl-ledger` オプションを使用して名前空間に ScalarDL Ledger をデプロイすることをお勧めします。 -## ステップ 7. ScalarDL Ledger 導入のステータスを確認する +## ステップ7. ScalarDL Ledger 導入のステータスを確認する -EKS クラスターに ScalarDL Ledger をデプロイした後、各コンポーネントのステータスを確認する必要があります。 詳細については、[Kubernetes環境で実行する場合に定期的に確認するコンポーネント](RegularCheck.mdx) を参照してください。 +EKS クラスターに ScalarDL Ledger をデプロイした後、各コンポーネントのステータスを確認する必要があります。詳細については、[Kubernetes環境で実行する場合に定期的に確認するコンポーネント](RegularCheck.mdx)を参照してください。 -## ステップ 8. ScalarDL Ledger の展開を監視する +## ステップ8. ScalarDL Ledger の展開を監視する -EKS クラスターに ScalarDL Ledger をデプロイした後、特に本番環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。 詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx) を参照してください。 +EKS クラスターに ScalarDL Ledger をデプロイした後、特に本番環境では、デプロイされたコンポーネントを監視し、そのログを収集することをお勧めします。詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx)および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx)を参照してください。 ## EKS から ScalarDL Ledger を削除 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/NetworkPeeringForScalarDLAuditor.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/NetworkPeeringForScalarDLAuditor.mdx index 1a6f1144..c125e201 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/NetworkPeeringForScalarDLAuditor.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/NetworkPeeringForScalarDLAuditor.mdx @@ -1,17 +1,18 @@ --- +displayed_sidebar: docsJapanese --- -# ScalarDL Auditor モード用にネットワーク ピアリングを構成する +# ScalarDL Auditor モード用にネットワークピアリングを構成する import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このドキュメントでは、ScalarDL Auditor モードで複数のプライベート ネットワークを接続し、ネットワーク ピアリングを実行する方法について説明します。 ScalarDL Auditor モードが正しく動作するには、ScalarDL Ledger を ScalarDL Auditor に接続する必要があります。 +このドキュメントでは、ScalarDL Auditor モードで複数のプライベートネットワークを接続し、ネットワークピアリングを実行する方法について説明します。ScalarDL Auditor モードが正しく動作するには、ScalarDL Ledger を ScalarDL Auditor に接続する必要があります。 ## 接続する必要があるネットワーク -ScalarDL Auditor モード (ビザンチン障害検出) を正しく機能させるには、3 つのプライベート ネットワークを接続する必要があります。 +ScalarDL Auditor モード (ビザンチン障害検出) を正しく機能させるには、3つのプライベートネットワークを接続する必要があります。 * [ScalarDL Ledger ネットワーク] ↔ [ScalarDL Auditor ネットワーク] * [ScalarDL Ledger ネットワーク] ↔ [アプリケーション(クライアント)ネットワーク] @@ -21,15 +22,15 @@ ScalarDL Auditor モード (ビザンチン障害検出) を正しく機能さ ### IP アドレス範囲 -プライベート ネットワーク間で IP アドレスが競合しないようにするには、異なる IP アドレス範囲を持つプライベート ネットワークが必要です。 例えば: +プライベートネットワーク間で IP アドレスが競合しないようにするには、異なる IP アドレス範囲を持つプライベートネットワークが必要です。例えば: -* **ScalarDL Ledger のプライベート ネットワーク:** 10.1.0.0/16 -* **ScalarDL Auditor のプライベート ネットワーク:** 10.2.0.0/16 -* **アプリケーション (クライアント) のプライベート ネットワーク:** 10.3.0.0/16 +* **ScalarDL Ledger のプライベートネットワーク:** 10.1.0.0/16 +* **ScalarDL Auditor のプライベートネットワーク:** 10.2.0.0/16 +* **アプリケーション (クライアント) のプライベートネットワーク:** 10.3.0.0/16 ### 接続 -ScalarDL Ledger、ScalarDL Auditor、およびアプリケーション(クライアント)を接続するためのデフォルトのネットワークポートは、デフォルトでは次のとおりです。 各プライベート ネットワーク間でこれらの接続を許可する必要があります。 +ScalarDL Ledger、ScalarDL Auditor、およびアプリケーション (クライアント) を接続するためのデフォルトのネットワークポートは、デフォルトでは次のとおりです。各プライベートネットワーク間でこれらの接続を許可する必要があります。 * **ScalarDL Ledger** * **50051/TCP:** アプリケーション (クライアント) および Scalar Envoy 経由の ScalarDL Auditor からのリクエストを受け入れます。 @@ -43,7 +44,7 @@ ScalarDL Ledger、ScalarDL Auditor、およびアプリケーション(クラ * **40051/TCP:** アプリケーション (クライアント) および ScalarDL Ledger からの ScalarDL Auditor のリクエストを受け入れます。 * **40052/TCP:** アプリケーション (クライアント) および ScalarDL Ledger からの ScalarDL Auditor に対する特権リクエストを受け入れます。 -構成ファイル (ledger.properties または auditor.properties) で ScalarDL のリスニング ポートをデフォルトから変更する場合は、構成したポートを使用して接続を許可する必要があることに注意してください。 +構成ファイル (ledger.properties または auditor.properties) で ScalarDL のリスニングポートをデフォルトから変更する場合は、構成したポートを使用して接続を許可する必要があることに注意してください。 ## プライベートネットワークピアリング @@ -51,7 +52,7 @@ ScalarDL Ledger、ScalarDL Auditor、およびアプリケーション(クラ ### Amazon VPC ピアリング -アマゾン ウェブ サービス (AWS) 環境で Virtual Private Cloud (VPC) をピアリングする方法の詳細については、Amazon の公式ドキュメント [Create a VPC peering connection](https://docs.aws.amazon.com/vpc/latest/peering/create-vpc-peering-connection.html) を参照してください。 +アマゾンウェブサービス (AWS) 環境で Virtual Private Cloud (VPC) をピアリングする方法の詳細については、Amazon の公式ドキュメント [Create a VPC peering connection](https://docs.aws.amazon.com/vpc/latest/peering/create-vpc-peering-connection.html) を参照してください。 ### Azure VNet ピアリング diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ProductionChecklistForScalarDBCluster.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ProductionChecklistForScalarDBCluster.mdx index d69283a8..a1eed1be 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ProductionChecklistForScalarDBCluster.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ProductionChecklistForScalarDBCluster.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # ScalarDB Cluster の制作チェックリスト @@ -22,23 +23,23 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; ### ポッドと Kubernetes ワーカーノードの数 -Kubernetes クラスターの高可用性を確保するには、少なくとも 3 つのワーカーノードを使用し、ワーカーノード全体に少なくとも 3 つのポッドをデプロイする必要があります。 3 つのポッドをワーカーノードに分散させるための `podAntiAffinity` の [サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardb-cluster-custom-values-indirect-mode.yaml) を参照できます。 +Kubernetes クラスターの高可用性を確保するには、少なくとも3つのワーカーノードを使用し、ワーカーノード全体に少なくとも3つのポッドをデプロイする必要があります。3つのポッドをワーカーノードに分散させるための `podAntiAffinity` の[サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardb-cluster-custom-values-indirect-mode.yaml)を参照できます。 :::note -ワーカーノードを異なるアベイラビリティ ゾーン (AZ) に配置すると、AZ の障害に耐えることができます。 +ワーカーノードを異なるアベイラビリティゾーン (AZ) に配置すると、AZ の障害に耐えることができます。 ::: ### ワーカーノードの仕様 -商用ライセンスの観点から、ScalarDB Cluster を実行する 1 つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。 また、ScalarDB Cluster ポッド以外の一部のポッドがワーカーノード上に存在します。 +商用ライセンスの観点から、ScalarDB Cluster を実行する1つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。また、ScalarDB Cluster ポッド以外の一部のポッドがワーカーノード上に存在します。 -つまり、次のコンポーネントは 1 つのワーカーノード上で実行できます。 +つまり、次のコンポーネントは1つのワーカーノード上で実行できます。 * ScalarDB Cluster ポッド (2vCPU / 4GB) -* Envoy プロキシ (`indirect` クライアント モードを使用する場合、または Java 以外のプログラミング言語を使用する場合) -* アプリケーション ポッド (同じワーカーノード上でアプリケーションのポッドを実行することを選択した場合) +* Envoy プロキシ (`indirect` クライアントモードを使用する場合、または Java 以外のプログラミング言語を使用する場合) +* アプリケーションポッド (同じワーカーノード上でアプリケーションのポッドを実行することを選択した場合) * 監視コンポーネント (`kube-prometheus-stack` などの監視コンポーネントをデプロイする場合) * Kubernetes コンポーネント @@ -48,43 +49,43 @@ Kubernetes クラスターの高可用性を確保するには、少なくとも ::: -これを念頭に置いて、[ポッドと Kubernetes ワーカーノードの数](ProductionChecklistForScalarDBCluster.mdx#ポッドと-kubernetes-ワーカーノードの数) で説明されているように、少なくとも 4vCPU / 8GB のメモリ リソースを持つワーカーノードを使用し、可用性のために少なくとも 3 つのワーカーノードを使用する必要があります。 +これを念頭に置いて、[ポッドと Kubernetes ワーカーノードの数](ProductionChecklistForScalarDBCluster.mdx#ポッドと-kubernetes-ワーカーノードの数)で説明されているように、少なくとも 4vCPU / 8GB のメモリリソースを持つワーカーノードを使用し、可用性のために少なくとも3つのワーカーノードを使用する必要があります。 -ただし、実稼働環境では、ノードあたり少なくとも 4vCPU / 8GB のメモリ リソースを備えた 3 つのノードが最小限です。 システムのワークロードに応じて、Kubernetes クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDB Cluster ポッド、アプリケーションのポッドなど) も考慮する必要があります。 また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングすることを計画している場合は、ワーカーノード上のポッドの最大数を考慮してワーカーノードのリソースを決定する必要があります。 +ただし、実稼働環境では、ノードあたり少なくとも 4vCPU / 8GB のメモリリソースを備えた3つのノードが最小限です。システムのワークロードに応じて、Kubernetes クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDB Cluster ポッド、アプリケーションのポッドなど) も考慮する必要があります。また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングすることを計画している場合は、ワーカーノード上のポッドの最大数を考慮してワーカーノードのリソースを決定する必要があります。 #### 通信網 -ScalarDB Cluster はインターネット アクセス経由でユーザーに直接サービスを提供しないため、Kubernetes クラスターはプライベート ネットワーク上に作成する必要があります。 アプリケーションからプライベート ネットワーク経由で ScalarDB Cluster にアクセスすることをお勧めします。 +ScalarDB Cluster はインターネットアクセス経由でユーザーに直接サービスを提供しないため、Kubernetes クラスターはプライベートネットワーク上に作成する必要があります。アプリケーションからプライベートネットワーク経由で ScalarDB Cluster にアクセスすることをお勧めします。 ### 監視とログ記録 -デプロイされたコンポーネントを監視し、そのログを収集する必要があります。 詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) および `Kubernetes クラスター上の Scalar 製品からのログの収集](./K8sLogCollectionGuide.mdx) を参照してください。 +デプロイされたコンポーネントを監視し、そのログを収集する必要があります。詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx)および `Kubernetes クラスター上の Scalar 製品からのログの収集](./K8sLogCollectionGuide.mdx)を参照してください。 ### バックアップと復元 -バックエンド データベースで自動バックアップ機能とポイントインタイム リカバリ (PITR) 機能を有効にする必要があります。 詳細については、[ScalarDB/ScalarDL 導入用のデータベースのセットアップ](SetupDatabase.mdx) を参照してください。 +バックエンドデータベースで自動バックアップ機能とポイントインタイムリカバリ (PITR) 機能を有効にする必要があります。詳細については、[ScalarDB/ScalarDL 導入用のデータベースのセットアップ](SetupDatabase.mdx)を参照してください。 -## 運用チェックリスト: ScalarDB Cluster にアクセスするクライアント アプリケーション +## 運用チェックリスト: ScalarDB Cluster にアクセスするクライアントアプリケーション -以下は、実稼働環境で ScalarDB Cluster にアクセスするクライアント アプリケーションをセットアップする際の推奨事項のチェックリストです。 +以下は、実稼働環境で ScalarDB Cluster にアクセスするクライアントアプリケーションをセットアップする際の推奨事項のチェックリストです。 -### クライアント モード (Java クライアント ライブラリのみ) +### クライアントモード (Java クライアントライブラリのみ) -アプリケーションに Java を使用する場合、公式の Java クライアント ライブラリを使用できます。 この場合、[`direct-kubernetes mode`](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/developer-guide-for-scalardb-cluster-with-java-api#direct-kubernetes-client-mode) または [`indirect mode`](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/developer-guide-for-scalardb-cluster-with-java-api#indirect-client-mode) の 2 つのクライアント モードのいずれかを選択できます。 +アプリケーションに Java を使用する場合、公式の Java クライアントライブラリを使用できます。この場合、[`direct-kubernetes mode`](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/developer-guide-for-scalardb-cluster-with-java-api#direct-kubernetes-client-mode) または [`indirect mode`](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/developer-guide-for-scalardb-cluster-with-java-api#indirect-client-mode) の2つのクライアントモードのいずれかを選択できます。 -パフォーマンスの観点から、`direct-kubernetes` モードの使用をお勧めします。 `direct-kubernetes` モードを使用するには、アプリケーション ポッドを ScalarDB Cluster ポッドと同じ Kubernetes クラスターにデプロイする必要があります。 この場合、Envoy ポッドをデプロイする必要はありません。 +パフォーマンスの観点から、`direct-kubernetes` モードの使用をお勧めします。`direct-kubernetes` モードを使用するには、アプリケーションポッドを ScalarDB Cluster ポッドと同じ Kubernetes クラスターにデプロイする必要があります。この場合、Envoy ポッドをデプロイする必要はありません。 -何らかの理由で Java アプリケーション ポッドを ScalarDB Cluster ポッドと同じ Kubernetes クラスターにデプロイできない場合は、`indirect` モードを使用する必要があります。 この場合、Envoy ポッドをデプロイする必要があります。 +何らかの理由で Java アプリケーションポッドを ScalarDB Cluster ポッドと同じ Kubernetes クラスターにデプロイできない場合は、`indirect` モードを使用する必要があります。この場合、Envoy ポッドをデプロイする必要があります。 :::note -クライアント モード設定は Java クライアント ライブラリ専用です。 アプリケーションに Java 以外のプログラミング言語を使用する場合 (基本的に、[gRPC API](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/scalardb-cluster-grpc-api-guide) または [gRPC SQL API](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/scalardb-cluster-sql-grpc-api-guide) をプログラミング言語から直接使用する場合)、そのような構成は存在しません。 この場合、Envoy ポッドをデプロイする必要があります。 +クライアントモード設定は Java クライアントライブラリ専用です。アプリケーションに Java 以外のプログラミング言語を使用する場合 (基本的に、[gRPC API](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/scalardb-cluster-grpc-api-guide) または [gRPC SQL API](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/scalardb-cluster-sql-grpc-api-guide) をプログラミング言語から直接使用する場合)、そのような構成は存在しません。この場合、Envoy ポッドをデプロイする必要があります。 ::: -### トランザクション マネージャーの構成 (Java クライアント ライブラリのみ) +### トランザクションマネージャーの構成 (Java クライアントライブラリのみ) -クライアント アプリケーションは、常に ScalarDB Cluster を通じてデータベースにアクセスする必要があります。 リクエストが適切に実行されていることを確認するには、クライアント アプリケーションのプロパティ ファイルをチェックし、CRUD API の使用時に `scalar.db.transaction_manager=cluster` が設定されていることを確認します。 +クライアントアプリケーションは、常に ScalarDB Cluster を通じてデータベースにアクセスする必要があります。リクエストが適切に実行されていることを確認するには、クライアントアプリケーションのプロパティファイルをチェックし、CRUD API の使用時に `scalar.db.transaction_manager=cluster` が設定されていることを確認します。 #### 実稼働環境に推奨 @@ -96,7 +97,7 @@ flowchart LR app --> server --> db ``` -#### Not recommended for production environments (for testing purposes only) +#### 本番環境では推奨されません (テスト目的のみ) ```mermaid flowchart LR @@ -105,15 +106,15 @@ flowchart LR app --> db ``` -### SQL 接続構成 (Java クライアント ライブラリのみ) +### SQL 接続構成 (Java クライアントライブラリのみ) -クライアント アプリケーションは、常に ScalarDB Cluster を通じてデータベースにアクセスする必要があります。 リクエストが適切に実行されていることを確認するには、クライアント アプリケーションのプロパティ ファイルをチェックし、SQL API を使用するときに `scalar.db.sql.connection_mode=cluster` が設定されていることを確認します。 +クライアントアプリケーションは、常に ScalarDB Cluster を通じてデータベースにアクセスする必要があります。リクエストが適切に実行されていることを確認するには、クライアントアプリケーションのプロパティファイルをチェックし、SQL API を使用するときに `scalar.db.sql.connection_mode=cluster` が設定されていることを確認します。 #### 実稼働環境に推奨 ```mermaid flowchart LR - app["アプリ
ScalarDB SQL ライブラリ (クラスター モード)"] + app["アプリ
ScalarDB SQL ライブラリ (クラスターモード)"] server["ScalarDB Cluster
Consensus Commit を備えた
ScalarDB ライブラリ"] db[(基盤となるストレージまたはデータベース)] app --> server --> db @@ -123,20 +124,20 @@ flowchart LR ```mermaid flowchart LR - app["アプリ
ScalarDB SQL ライブラリ (ダイレクト モード)"] + app["アプリ
ScalarDB SQL ライブラリ (ダイレクトモード)"] db[(基盤となるストレージまたはデータベース)] app --> db ``` -### `direct-kubernetes` クライアント モードを使用する場合のクライアント アプリケーションのデプロイメント (Java クライアント ライブラリのみ) +### `direct-kubernetes` クライアントモードを使用する場合のクライアントアプリケーションのデプロイメント (Java クライアントライブラリのみ) -[`direct-kubernetes` client mode](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/developer-guide-for-scalardb-cluster-with-java-api#direct-kubernetes-client-mode) を使用する場合は、クライアント アプリケーションを ScalarDB Cluster デプロイメントと同じ Kubernetes クラスターにデプロイする必要があります。 +[`direct-kubernetes` client mode](https://scalardb.scalar-labs.com/docs/latest/scalardb-cluster/developer-guide-for-scalardb-cluster-with-java-api#direct-kubernetes-client-mode) を使用する場合は、クライアントアプリケーションを ScalarDB Cluster デプロイメントと同じ Kubernetes クラスターにデプロイする必要があります。 -また、`direct-kubernetes` クライアント モードを使用する場合は、クライアント アプリケーションが適切に動作するように追加の Kubernetes リソースをデプロイする必要があります。 詳細については、[Deploy your client application on Kubernetes with `direct-kubernetes` mode](../helm-charts/how-to-deploy-scalardb-cluster.mdx#direct-kubernetes-モードを使用してクライアント-アプリケーションを-kubernetes-にデプロイします) を参照してください。 +また、`direct-kubernetes` クライアントモードを使用する場合は、クライアントアプリケーションが適切に動作するように追加の Kubernetes リソースをデプロイする必要があります。詳細については、[Deploy your client application on Kubernetes with `direct-kubernetes` mode](../helm-charts/how-to-deploy-scalardb-cluster.mdx#direct-kubernetes-モードを使用してクライアント-アプリケーションを-kubernetes-にデプロイします) を参照してください。 -### トランザクション処理 (Java クライアント ライブラリと gRPC API) +### トランザクション処理 (Java クライアントライブラリと gRPC API) -トランザクションを [`begin()`](https://scalardb.scalar-labs.com/docs/latest/api-guide#begin-or-start-a-transaction) した後、アプリケーションが常に [`commit()`](https://scalardb.scalar-labs.com/docs/latest/api-guide#commit-a-transaction) または [`rollback()`](https://scalardb.scalar-labs.com/docs/latest/api-guide#roll-back-or-abort-a-transaction) を実行するようにする必要があります。 アプリケーションが `commit()` または `rollback()` を実行しない場合、アプリケーションで予期しない問題が発生したり、バックエンド データベースから一貫性のないデータが読み取られる可能性があります。 +トランザクションを [`begin()`](https://scalardb.scalar-labs.com/docs/latest/api-guide#begin-or-start-a-transaction) した後、アプリケーションが常に [`commit()`](https://scalardb.scalar-labs.com/docs/latest/api-guide#commit-a-transaction) または [`rollback()`](https://scalardb.scalar-labs.com/docs/latest/api-guide#roll-back-or-abort-a-transaction) を実行するようにする必要があります。アプリケーションが `commit()` または `rollback()` を実行しない場合、アプリケーションで予期しない問題が発生したり、バックエンドデータベースから一貫性のないデータが読み取られる可能性があります。 :::note @@ -144,9 +145,9 @@ flowchart LR ::: -### 例外処理 (Java クライアント ライブラリと gRPC API) +### 例外処理 (Java クライアントライブラリと gRPC API) -アプリケーションがトランザクション例外を処理することを確認する必要があります。 詳細については、使用している API のドキュメントを参照してください。 +アプリケーションがトランザクション例外を処理することを確認する必要があります。詳細については、使用している API のドキュメントを参照してください。 * [Handle exceptions (Transactional API)](https://scalardb.scalar-labs.com/docs/latest/api-guide#handle-exceptions). * [Handle exceptions (two-phase commit transactions API)](https://scalardb.scalar-labs.com/docs/latest/two-phase-commit-transactions#handle-exceptions) diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ProductionChecklistForScalarDLAuditor.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ProductionChecklistForScalarDLAuditor.mdx index f3f1e0ff..cbb7a08c 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ProductionChecklistForScalarDLAuditor.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ProductionChecklistForScalarDLAuditor.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsJapanese --- # ScalarDL Auditor の制作チェックリスト @@ -19,42 +20,42 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; ### ScalarDL の可用性 -Kubernetes クラスターの高可用性を確保するには、少なくとも 3 つのワーカーノードを使用し、ワーカーノード全体に少なくとも 3 つのポッドをデプロイする必要があります。 3 つのポッドをワーカーノードに分散させるための `podAntiAffinity` の [サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-audit-custom-values.yaml) を参照できます。 +Kubernetes クラスターの高可用性を確保するには、少なくとも3つのワーカーノードを使用し、ワーカーノード全体に少なくとも3つのポッドをデプロイする必要があります。3つのポッドをワーカーノードに分散させるための `podAntiAffinity` の[サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-audit-custom-values.yaml)を参照できます。 :::note -ワーカーノードを異なるアベイラビリティ ゾーン (AZ) に配置すると、AZ の障害に耐えることができます。 +ワーカーノードを異なるアベイラビリティゾーン (AZ) に配置すると、AZ の障害に耐えることができます。 ::: ### リソース -商用ライセンスの観点から、ScalarDL Auditor を実行する 1 つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。 ScalarDL Auditor ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 +商用ライセンスの観点から、ScalarDL Auditor を実行する1つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。ScalarDL Auditor ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 * ScalarDL Auditor ポッド (2vCPU / 4GB) * Envoy プロキシ * 監視コンポーネント (`kube-prometheus-stack` などの監視コンポーネントをデプロイする場合) * Kubernetes コンポーネント -これを念頭に置いて、[ScalarDL の可用性](#scalardl-availability) で説明されているように、少なくとも 4vCPU / 8GB のメモリ リソースを持つワーカーノードを使用し、可用性のために少なくとも 3 つのワーカーノードを使用する必要があります。 +これを念頭に置いて、[ScalarDL の可用性](#scalardl-availability)で説明されているように、少なくとも 4vCPU / 8GB のメモリリソースを持つワーカーノードを使用し、可用性のために少なくとも3つのワーカーノードを使用する必要があります。 -ただし、ノードあたり少なくとも 4vCPU / 8GB のメモリ リソースを備えた 3 つのノードが運用環境の最小環境となります。 システムのワークロードに応じて、Kubernetes クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDL Auditor ポッドなど) も考慮する必要があります。 また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 +ただし、ノードあたり少なくとも 4vCPU / 8GB のメモリリソースを備えた3つのノードが運用環境の最小環境となります。システムのワークロードに応じて、Kubernetes クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDL Auditor ポッドなど) も考慮する必要があります。また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 ### 通信網 -ScalarDL Auditor はインターネット アクセス経由でユーザーにサービスを直接提供しないため、Kubernetes クラスターはプライベート ネットワーク上に作成する必要があります。 アプリケーションからプライベート ネットワーク経由で ScalarDL Auditor にアクセスすることをお勧めします。 +ScalarDL Auditor はインターネットアクセス経由でユーザーにサービスを直接提供しないため、Kubernetes クラスターはプライベートネットワーク上に作成する必要があります。アプリケーションからプライベートネットワーク経由で ScalarDL Auditor にアクセスすることをお勧めします。 ### 監視とログ記録 -デプロイされたコンポーネントを監視し、そのログを収集する必要があります。 詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx) を参照してください。 +デプロイされたコンポーネントを監視し、そのログを収集する必要があります。詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx)および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx)を参照してください。 ### バックアップと復元 -バックエンド データベースで自動バックアップ機能とポイントインタイム リカバリ (PITR) 機能を有効にする必要があります。 詳細については、[ScalarDB/ScalarDL 導入用のデータベースのセットアップ](SetupDatabase.mdx) を参照してください。 +バックエンドデータベースで自動バックアップ機能とポイントインタイムリカバリ (PITR) 機能を有効にする必要があります。詳細については、[ScalarDB/ScalarDL 導入用のデータベースのセットアップ](SetupDatabase.mdx)を参照してください。 ### ScalarDL Auditor の展開 -ScalarDL でのビザンチン障害検出が適切に機能するには、ScalarDL Ledger デプロイメントと同じ Kubernetes クラスターに ScalarDL Auditor ポッドをデプロイしないでください。 代わりに、ScalarDL Ledger デプロイメントの管理ドメイン以外の環境 (Kubernetes クラスター以外) に ScalarDL Auditor ポッドをデプロイする必要があります。 +ScalarDL でのビザンチン障害検出が適切に機能するには、ScalarDL Ledger デプロイメントと同じ Kubernetes クラスターに ScalarDL Auditor ポッドをデプロイしないでください。代わりに、ScalarDL Ledger デプロイメントの管理ドメイン以外の環境 (Kubernetes クラスター以外) に ScalarDL Auditor ポッドをデプロイする必要があります。 #### 実稼働環境に必要 @@ -100,7 +101,7 @@ graph LR A-1 --- B-1 ``` -ScalarDL は、ScalarDL Ledger と ScalarDL Auditor 間の接続に次のポートを使用します。 ScalarDL Ledger と ScalarDL Auditor の間で次の接続を許可する必要があります。 +ScalarDL は、ScalarDL Ledger と ScalarDL Auditor 間の接続に次のポートを使用します。ScalarDL Ledger と ScalarDL Auditor の間で次の接続を許可する必要があります。 * ScalarDL Ledger * 50051/TCP @@ -121,30 +122,30 @@ Curve parameter : P-256 詳しくは [How to get a certificate](https://scalardl.scalar-labs.com/ja-jp/docs/latest/ca/caclient-getting-started) をご覧ください。 -## 実稼働チェックリスト: ScalarDL Auditor にアクセスするクライアント アプリケーション +## 実稼働チェックリスト: ScalarDL Auditor にアクセスするクライアントアプリケーション -以下は、運用環境で ScalarDL Auditor にアクセスするクライアント アプリケーションをセットアップする際の推奨事項のチェックリストです。 +以下は、運用環境で ScalarDL Auditor にアクセスするクライアントアプリケーションをセットアップする際の推奨事項のチェックリストです。 -### クライアント アプリケーションのデプロイメント +### クライアントアプリケーションのデプロイメント -ScalarDL でのビザンチン障害検出が適切に機能するには、ScalarDL デプロイメントと同じ Kubernetes クラスターにアプリケーション ポッドをデプロイしないでください。 代わりに、ScalarDL デプロイメントの管理ドメイン以外の環境 (Kubernetes クラスター以外) にアプリケーションをデプロイする必要があります。 +ScalarDL でのビザンチン障害検出が適切に機能するには、ScalarDL デプロイメントと同じ Kubernetes クラスターにアプリケーションポッドをデプロイしないでください。代わりに、ScalarDL デプロイメントの管理ドメイン以外の環境 (Kubernetes クラスター以外) にアプリケーションをデプロイする必要があります。 #### 実稼働環境に必要 ```mermaid graph LR - subgraph "管理ドメイン 1" + subgraph "管理ドメイン 1" subgraph "別の環境" A-1[ユーザーアプリケーション] end end subgraph "ScalarDL" - subgraph "管理ドメイン 2" + subgraph "管理ドメイン 2" subgraph "Ledger 用の Kubernetes クラスター" B-1[ScalarDL Ledger] end end - subgraph "管理ドメイン 3" + subgraph "管理ドメイン 3" subgraph "Auditor 用の Kubernetes クラスター" C-1[ScalarDL Auditor] end @@ -168,6 +169,6 @@ graph LR A-1 --> A-3 ``` -### クライアント アプリケーションのチェックリスト +### クライアントアプリケーションのチェックリスト -また、[運用チェックリスト: ScalarDL Ledger にアクセスするクライアントアプリケーション](ProductionChecklistForScalarDLLedger.mdx#運用チェックリスト-scalardl-ledger-にアクセスするクライアントアプリケーション) を満たしていることも確認する必要があります。 +また、[運用チェックリスト: ScalarDL Ledger にアクセスするクライアントアプリケーション](ProductionChecklistForScalarDLLedger.mdx#運用チェックリスト-scalardl-ledger-にアクセスするクライアントアプリケーション)を満たしていることも確認する必要があります。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ProductionChecklistForScalarDLLedger.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ProductionChecklistForScalarDLLedger.mdx index 4f1a8941..0f9428fe 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ProductionChecklistForScalarDLLedger.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ProductionChecklistForScalarDLLedger.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsJapanese --- # ScalarDL Ledgerの制作チェックリスト @@ -19,46 +20,46 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; ### ScalarDL の可用性 -Kubernetes クラスターの高可用性を確保するには、少なくとも 3 つのワーカーノードを使用し、ワーカーノード全体に少なくとも 3 つのポッドをデプロイする必要があります。 3 つのポッドをワーカーノードに分散させるための `podAntiAffinity` の [サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-custom-values.yaml) を参照できます。 +Kubernetes クラスターの高可用性を確保するには、少なくとも3つのワーカーノードを使用し、ワーカーノード全体に少なくとも3つのポッドをデプロイする必要があります。3つのポッドをワーカーノードに分散させるための `podAntiAffinity` の[サンプル構成](https://github.com/scalar-labs/scalar-kubernetes/blob/master/conf/scalardl-custom-values.yaml)を参照できます。 :::note -ワーカーノードを異なるアベイラビリティ ゾーン (AZ) に配置すると、AZ の障害に耐えることができます。 +ワーカーノードを異なるアベイラビリティゾーン (AZ) に配置すると、AZ の障害に耐えることができます。 ::: ### リソース -商用ライセンスの観点から、ScalarDL Ledger を実行する 1 つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。 ScalarDL Ledger ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 +商用ライセンスの観点から、ScalarDL Ledger を実行する1つのポッドのリソースは 2vCPU / 4GB メモリに制限されます。ScalarDL Ledger ポッドに加えて、Kubernetes は次のコンポーネントの一部を各ワーカーノードにデプロイできます。 * ScalarDL Ledger ポッド (2vCPU / 4GB) * Envoy プロキシ * 監視コンポーネント (`kube-prometheus-stack` などの監視コンポーネントをデプロイする場合) * Kubernetes コンポーネント -これを念頭に置いて、[ScalarDL の可用性](#scalardl-availability) で説明されているように、少なくとも 4vCPU / 8GB のメモリ リソースを持つワーカーノードを使用し、可用性のために少なくとも 3 つのワーカーノードを使用する必要があります。 +これを念頭に置いて、[ScalarDL の可用性](#scalardl-availability) で説明されているように、少なくとも 4vCPU / 8GB のメモリリソースを持つワーカーノードを使用し、可用性のために少なくとも3つのワーカーノードを使用する必要があります。 -ただし、ノードあたり少なくとも 4vCPU / 8GB のメモリ リソースを備えた 3 つのノードが運用環境の最小環境となります。 システムのワークロードに応じて、Kubernetes クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDL Ledger ポッドなど) も考慮する必要があります。 また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 +ただし、ノードあたり少なくとも 4vCPU / 8GB のメモリリソースを備えた3つのノードが運用環境の最小環境となります。システムのワークロードに応じて、Kubernetes クラスターのリソース (ワーカーノードの数、ノードあたりの vCPU、ノードあたりのメモリ、ScalarDL Ledger ポッドなど) も考慮する必要があります。また、[Horizontal Pod Autoscaling (HPA)](https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/) などの機能を使用してポッドを自動的にスケーリングする予定の場合は、ワーカーノードのリソースを決定するときにワーカーノード上の最大ポッド数を考慮する必要があります。 ### 通信網 -ScalarDL Ledger はインターネット アクセス経由でユーザーにサービスを直接提供しないため、Kubernetes クラスターはプライベート ネットワーク上に作成する必要があります。 アプリケーションからプライベート ネットワーク経由で ScalarDL Ledger にアクセスすることをお勧めします。 +ScalarDL Ledger はインターネットアクセス経由でユーザーにサービスを直接提供しないため、Kubernetes クラスターはプライベートネットワーク上に作成する必要があります。アプリケーションからプライベートネットワーク経由で ScalarDL Ledger にアクセスすることをお勧めします。 ### 監視とログ記録 -デプロイされたコンポーネントを監視し、そのログを収集する必要があります。 詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx) および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx) を参照してください。 +デプロイされたコンポーネントを監視し、そのログを収集する必要があります。詳細については、[Kubernetes クラスター上の Scalar 製品の監視](K8sMonitorGuide.mdx)および [Kubernetes クラスター上の Scalar 製品からのログの収集](K8sLogCollectionGuide.mdx)を参照してください。 ### バックアップと復元 -バックエンド データベースで自動バックアップ機能とポイントインタイム リカバリ (PITR) 機能を有効にする必要があります。 詳細については、[ScalarDB/ScalarDL 導入用のデータベースのセットアップ](SetupDatabase.mdx) を参照してください。 +バックエンドデータベースで自動バックアップ機能とポイントインタイムリカバリ (PITR) 機能を有効にする必要があります。詳細については、[ScalarDB/ScalarDL 導入用のデータベースのセットアップ](SetupDatabase.mdx) を参照してください。 ## 運用チェックリスト: ScalarDL Ledger にアクセスするクライアントアプリケーション -以下は、運用環境で ScalarDL Ledger にアクセスするクライアント アプリケーションをセットアップする際の推奨事項のチェックリストです。 +以下は、運用環境で ScalarDL Ledger にアクセスするクライアントアプリケーションをセットアップする際の推奨事項のチェックリストです。 -### クライアント アプリケーションのデプロイメント +### クライアントアプリケーションのデプロイメント -ScalarDL でのビザンチン障害検出が適切に機能するには、アプリケーション ポッドを ScalarDL Ledger デプロイメントと同じ Kubernetes クラスターにデプロイしないでください。 代わりに、ScalarDL Ledger デプロイメントの管理ドメイン以外の環境 (Kubernetes クラスター以外) にアプリケーションをデプロイする必要があります。 +ScalarDL でのビザンチン障害検出が適切に機能するには、アプリケーションポッドを ScalarDL Ledger デプロイメントと同じ Kubernetes クラスターにデプロイしないでください。代わりに、ScalarDL Ledger デプロイメントの管理ドメイン以外の環境 (Kubernetes クラスター以外) にアプリケーションをデプロイする必要があります。 #### 実稼働環境に必要 @@ -87,16 +88,16 @@ graph LR end ``` -### 契約と機能 +### コントラクトと機能 -契約と機能がガイドラインに従っているかどうかを確認するには、次を参照してください。 +コントラクトと機能がガイドラインに従っているかどうかを確認するには、次を参照してください。 * [A Guide on How to Write a Good Contract for ScalarDL](https://scalardl.scalar-labs.com/ja-jp/docs/latest/how-to-write-contract) * [A Guide on How to Write Function for ScalarDL](https://scalardl.scalar-labs.com/ja-jp/docs/latest/how-to-write-function) -### 契約のバージョン管理 +### コントラクトのバージョン管理 -契約を登録した後は、既存の契約を上書きすることはできません。 したがって、契約のバージョン管理を検討する必要があります。 次の 2 つの方法のいずれかを推奨します。 +コントラクトを登録した後は、既存のコントラクトを上書きすることはできません。したがって、コントラクトのバージョン管理を検討する必要があります。次の2つの方法のいずれかを推奨します。 #### `クラス名` を使用したバージョニング @@ -122,11 +123,11 @@ Binary Name : com.example.contract.v4.Foo Class file (Class Name) : src/main/java/com/example/contract/v4/Foo.class ``` -### 契約上の制限 +### コントラクト上の制限 コントラクト登録時にバイナリ名、パッケージ名、クラス名が異なる場合、登録後にそのコントラクトを実行することはできません。 -#### バイナリ名とクラス名が異なります(このコントラクトは実行できません) +#### バイナリ名とクラス名が異なります (このコントラクトは実行できません) ```console Contract ID : FooV5 @@ -134,7 +135,7 @@ Binary Name : com.example.contract.FooV5 Class file (Class Name) : src/main/java/com/example/contract/FooV6.class ``` -#### バイナリ名とパッケージ名が異なります(本契約は実行できません) +#### バイナリ名とパッケージ名が異なります (本コントラクトは実行できません) ```console Contract ID : FooV7 @@ -144,7 +145,7 @@ Class file (Class Name) : src/main/java/com/example/contract/v8/Foo.class ### 秘密鍵と証明書 -認証に PKI を使用する場合、ScalarDL Ledger に登録する秘密キーと証明書が次の要件を満たしていることを確認する必要があります。 +認証に PKI を使用する場合、ScalarDL Ledger に登録する秘密鍵と証明書が次の要件を満たしていることを確認する必要があります。 ```console Algorithm : ECDSA @@ -156,4 +157,4 @@ Curve parameter : P-256 ### 例外処理 -アプリケーションが例外を処理することを確認する必要があります。 詳細については、[A Guide on How to Handle Errors in ScalarDL](https://scalardl.scalar-labs.com/ja-jp/docs/latest/how-to-handle-errors) を参照してください。 +アプリケーションが例外を処理することを確認する必要があります。詳細については、[A Guide on How to Handle Errors in ScalarDL](https://scalardl.scalar-labs.com/ja-jp/docs/latest/how-to-handle-errors) を参照してください。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ProductionChecklistForScalarProducts.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ProductionChecklistForScalarProducts.mdx index ab141ab5..ccdb9a9a 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ProductionChecklistForScalarProducts.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/ProductionChecklistForScalarProducts.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Scalar 製品の制作チェックリスト diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/RegularCheck.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/RegularCheck.mdx index 92a05664..1e6a40c1 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/RegularCheck.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/RegularCheck.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Kubernetes 環境で実行するときに定期的にチェックするコンポーネント @@ -10,7 +11,7 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -手動デプロイメント ガイドによってデプロイされたコンポーネントのほとんどは、マネージド Kubernetes サービスと Kubernetes 自己修復機能の助けを借りて自己修復されます。 予期しない動作が発生したときに発生するアラートも設定されています。 したがって、マネージド Kubernetes クラスターに Scalar 製品をデプロイするために毎日行うべきことはそれほど多くありません。 ただし、システムのステータスを定期的にチェックして、すべてが正常に動作しているかどうかを確認することをお勧めします。 ここでは、定期的に実行しておきたいことのリストを示します。 +手動デプロイメントガイドによってデプロイされたコンポーネントのほとんどは、マネージド Kubernetes サービスと Kubernetes 自己修復機能の助けを借りて自己修復されます。予期しない動作が発生したときに発生するアラートも設定されています。したがって、マネージド Kubernetes クラスターに Scalar 製品をデプロイするために毎日行うべきことはそれほど多くありません。ただし、システムのステータスを定期的にチェックして、すべてが正常に動作しているかどうかを確認することをお勧めします。ここでは、定期的に実行しておきたいことのリストを示します。 ## Kubernetes リソース @@ -83,7 +84,7 @@ k8s-worker3 Ready 15m v1.25.3 ## Prometheus ダッシュボード (Scalar 製品のアラート) -ドキュメント [Kubernetes クラスター上の Scalar 製品のモニタリング](K8sMonitorGuide.mdx) に従って、Prometheus ダッシュボードにアクセスします。 [**アラート**] タブで、アラートのステータスを確認できます。 +ドキュメント [Kubernetes クラスター上の Scalar 製品のモニタリング](K8sMonitorGuide.mdx)に従って、Prometheus ダッシュボードにアクセスします。[**アラート**] タブで、アラートのステータスを確認できます。 確認すべき内容: @@ -93,6 +94,6 @@ k8s-worker3 Ready 15m v1.25.3 ## Grafana ダッシュボード (Scalar 製品のメトリクス) -ドキュメント [Kubernetes クラスター上の Scalar 製品のモニタリング](K8sMonitorGuide.mdx) に従って、Grafana ダッシュボードにアクセスします。 [**ダッシュボード**] タブには、Scalar 製品のダッシュボードが表示されます。 これらのダッシュボードでは、Scalar 製品のいくつかのメトリクスを確認できます。 +ドキュメント [Kubernetes クラスター上の Scalar 製品のモニタリング](K8sMonitorGuide.mdx)に従って、Grafana ダッシュボードにアクセスします。[**ダッシュボード**] タブには、Scalar 製品のダッシュボードが表示されます。これらのダッシュボードでは、Scalar 製品のいくつかのメトリクスを確認できます。 -これらのダッシュボードは問題に直接対処することはできませんが、通常からの変化 (トランザクション エラーの増加など) を確認して、問題を調査するためのヒントを得ることができます。 +これらのダッシュボードは問題に直接対処することはできませんが、通常からの変化 (トランザクションエラーの増加など) を確認して、問題を調査するためのヒントを得ることができます。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/RestoreDatabase.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/RestoreDatabase.mdx index dfe134a2..3e299a9a 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/RestoreDatabase.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/RestoreDatabase.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Kubernetes 環境でデータベースを復元する @@ -10,11 +11,11 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このガイドでは、ScalarDB または ScalarDL が Kubernetes 環境で使用するデータベースを復元する方法について説明します。 このガイドは、クラウド サービス プロバイダーのマネージド データベースを ScalarDB または ScalarDL のバックエンド データベースとして使用していることを前提としていることに注意してください。 +このガイドでは、ScalarDB または ScalarDL が Kubernetes 環境で使用するデータベースを復元する方法について説明します。このガイドは、クラウドサービスプロバイダーのマネージドデータベースを ScalarDB または ScalarDL のバックエンドデータベースとして使用していることを前提としていることに注意してください。 ## データベースをリストアする手順 -1. ScalarDB または ScalarDL ポッドを **0** にスケールインして、バックエンド データベースへのリクエストを停止します。 Helm コマンドで `--set *.replicaCount=0` フラグを使用すると、ポッドを **0** にスケールインできます。 +1. ScalarDB または ScalarDL ポッドを**0**にスケールインして、バックエンドデータベースへのリクエストを停止します。Helm コマンドで `--set *.replicaCount=0` フラグを使用すると、ポッドを**0**にスケールインできます。 * ScalarDB Server ```console helm upgrade scalar-labs/scalardb -n -f /path/to/ --set scalardb.replicaCount=0 @@ -29,15 +30,15 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; ``` 2. ポイントインタイムリカバリ (PITR) 機能を使用してデータベースを復元します。 - 管理データベースに基づいてデータベースを復元する方法の詳細については、このガイドの [管理されたデータベースに基づいてデータを復元するための補足手順](RestoreDatabase.mdx#管理されたデータベースに基づいてデータを復元するための補足手順) セクションを参照してください。 + 管理データベースに基づいてデータベースを復元する方法の詳細については、このガイドの[管理されたデータベースに基づいてデータを復元するための補足手順](RestoreDatabase.mdx#管理されたデータベースに基づいてデータを復元するための補足手順)セクションを参照してください。 - NoSQL または複数のデータベースを使用している場合は、[Kubernetes 環境での NoSQL データベースのバックアップ](BackupNoSQL.mdx) のバックアップ手順に従うときに作成した一時停止期間の中間点を指定する必要があります。 + NoSQL または複数のデータベースを使用している場合は、[Kubernetes 環境での NoSQL データベースのバックアップ](BackupNoSQL.mdx)のバックアップ手順に従うときに作成した一時停止期間の中間点を指定する必要があります。 3. 新しく復元されたデータベースに基づいて **database.properties**、**ledger.properties**、または **auditor.properties** を更新します。 - PITR 機能はデータベースを別のインスタンスとして復元するため、新しく復元されたデータベースにアクセスするには、ScalarDB または ScalarDL のカスタム値ファイル内のエンドポイント情報を更新する必要があります。 カスタム値ファイルの設定方法の詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 + PITR 機能はデータベースを別のインスタンスとして復元するため、新しく復元されたデータベースにアクセスするには、ScalarDB または ScalarDL のカスタム値ファイル内のエンドポイント情報を更新する必要があります。カスタム値ファイルの設定方法の詳細については、[Configure a custom values file for Scalar Helm Charts](../helm-charts/configure-custom-values-file.mdx) を参照してください。 - Amazon DynamoDB を使用している場合、データは別のインスタンスではなく別のテーブル名で復元されることに注意してください。 つまり、データの復元後にエンドポイントは変更されません。 代わりに、Amazon DynamoDB 内のテーブルの名前を変更してデータを復元する必要があります。 同じテーブル名でデータを復元する方法の詳細については、このガイドの [Amazon DynamoDB](RestoreDatabase.mdx#amazon-dynamodb) セクションを参照してください。 -4. Helm コマンドの `--set *.replicaCount=N` フラグを使用して、ScalarDB または ScalarDL ポッドを **1** 以上にスケールアウトし、クライアントからのリクエストの受け入れを開始します。 + Amazon DynamoDB を使用している場合、データは別のインスタンスではなく別のテーブル名で復元されることに注意してください。つまり、データの復元後にエンドポイントは変更されません。代わりに、Amazon DynamoDB 内のテーブルの名前を変更してデータを復元する必要があります。同じテーブル名でデータを復元する方法の詳細については、このガイドの [Amazon DynamoDB](RestoreDatabase.mdx#amazon-dynamodb) セクションを参照してください。 +4. Helm コマンドの `--set *.replicaCount=N` フラグを使用して、ScalarDB または ScalarDL ポッドを**1**以上にスケールアウトし、クライアントからのリクエストの受け入れを開始します。 * ScalarDB Server ```console helm upgrade scalar-labs/scalardb -n -f /path/to/ --set scalardb.replicaCount=3 @@ -55,7 +56,7 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; ### Amazon DynamoDB -PITR 機能を使用すると、Amazon DynamoDB は別のテーブル名でデータを復元します。 したがって、同じテーブル名でデータを復元するには、追加の手順に従う必要があります。 +PITR 機能を使用すると、Amazon DynamoDB は別のテーブル名でデータを復元します。したがって、同じテーブル名でデータを復元するには、追加の手順に従う必要があります。 #### ステップ @@ -78,34 +79,34 @@ PITR 機能を使用すると、Amazon DynamoDB は別のテーブル名でデ 3. 環境に応じて、必要に応じてテーブル構成を更新します。 - 自動スケーリング ポリシーなどの一部の構成は復元後に設定されないため、必要に応じてこれらの構成を手動で設定する必要がある場合があります。 詳細については、Amazon の公式ドキュメント[Backing up and restoring DynamoDB tables with DynamoDB: How it works](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/CreateBackup.html) を参照してください。 + 自動スケーリングポリシーなどの一部の構成は復元後に設定されないため、必要に応じてこれらの構成を手動で設定する必要がある場合があります。詳細については、Amazon の公式ドキュメント[Backing up and restoring DynamoDB tables with DynamoDB: How it works](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/CreateBackup.html) を参照してください。 - たとえば、ScalarDB Schema Loader または ScalarDL Schema Loader を使用してテーブルを作成している場合、自動スケーリングはデフォルトで有効になります。 したがって、DynamoDB で復元されたテーブルの自動スケーリングを手動で有効にする必要があります。 DynamoDB で自動スケーリングを有効にする方法の詳細については、Amazon の公式ドキュメント [Enabling DynamoDB auto scaling on existing tables](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/AutoScaling.Console.html#AutoScaling.Console.ExistingTable) を参照してください。 + たとえば、ScalarDB Schema Loader または ScalarDL Schema Loader を使用してテーブルを作成している場合、自動スケーリングはデフォルトで有効になります。したがって、DynamoDB で復元されたテーブルの自動スケーリングを手動で有効にする必要があります。DynamoDB で自動スケーリングを有効にする方法の詳細については、Amazon の公式ドキュメント [Enabling DynamoDB auto scaling on existing tables](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/AutoScaling.Console.html#AutoScaling.Console.ExistingTable) を参照してください。 - さらに、データベースを復元した後は、PITR 機能が無効になり、読み取り/書き込み容量モードがデフォルト値にリセットされます。 環境に応じて、必要に応じてこれらの構成を手動で設定する必要があります。 復元されたテーブルの一部の構成については、[AWS (Amazon DynamoDB) での ScalarDB/ScalarDL デプロイメント用のデータベースのセットアップ](SetupDatabaseForAWS.mdx#amazon-dynamodb) を参照してください。 + さらに、データベースを復元した後は、PITR 機能が無効になり、読み取り/書き込み容量モードがデフォルト値にリセットされます。環境に応じて、必要に応じてこれらの構成を手動で設定する必要があります。復元されたテーブルの一部の構成については、[AWS (Amazon DynamoDB) での ScalarDB/ScalarDL デプロイメント用のデータベースのセットアップ](SetupDatabaseForAWS.mdx#amazon-dynamodb)を参照してください。 ### NoSQL 用 Azure Cosmos DB -PITR 機能を使用する場合、Azure Cosmos DB は別のアカウントを使用してデータを復元します。 したがって、カスタム値ファイル内のエンドポイント構成を更新する必要があります。 +PITR 機能を使用する場合、Azure Cosmos DB は別のアカウントを使用してデータを復元します。したがって、カスタム値ファイル内のエンドポイント構成を更新する必要があります。 #### ステップ -1. アカウントを復元します。 PITR を使用して Azure Cosmos DB アカウントを復元する方法の詳細については、[Restore an Azure Cosmos DB account that uses continuous backup mode](https://learn.microsoft.com/en-us/azure/cosmos-db/restore-account-continuous-backup) を参照してください。 +1. アカウントを復元します。PITR を使用して Azure Cosmos DB アカウントを復元する方法の詳細については、[Restore an Azure Cosmos DB account that uses continuous backup mode](https://learn.microsoft.com/en-us/azure/cosmos-db/restore-account-continuous-backup) を参照してください。 -2. 復元されたアカウントの **デフォルトの整合性レベル** をデフォルト値から **Strong** に変更します。 この値の変更方法の詳細については、Microsoft の公式ドキュメント [Configure the default consistency level](https://learn.microsoft.com/en-us/azure/cosmos-db/nosql/how-to-manage-consistency#configure-the-default-consistency-level) を参照してください。 +2. 復元されたアカウントの **デフォルトの整合性レベル** をデフォルト値から **Strong** に変更します。この値の変更方法の詳細については、Microsoft の公式ドキュメント [Configure the default consistency level](https://learn.microsoft.com/en-us/azure/cosmos-db/nosql/how-to-manage-consistency#configure-the-default-consistency-level) を参照してください。 3. 新しく復元されたアカウントに基づいて、ScalarDB Schema Loader または ScalarDL Schema Loader の **database.properties** を更新します。 - ScalarDB は、ScalarDB Schema Loader または ScalarDL Schema Loader を使用してスキーマを作成するときにインストールされるストアド プロシージャを使用して Cosmos DB アダプターを実装します。 ただし、Cosmos DB の PITR 機能はストアド プロシージャを復元しないため、復元後にすべてのテーブルに必要なストアド プロシージャを再インストールする必要があります。 ScalarDB Schema Loader または ScalarDL Schema Loader の `--repair-all` オプションを使用して、必要なストアド プロシージャを再インストールできます。 + ScalarDB は、ScalarDB Schema Loader または ScalarDL Schema Loader を使用してスキーマを作成するときにインストールされるストアドプロシージャを使用して Cosmos DB アダプターを実装します。ただし、Cosmos DB の PITR 機能はストアドプロシージャを復元しないため、復元後にすべてのテーブルに必要なストアドプロシージャを再インストールする必要があります。ScalarDB Schema Loader または ScalarDL Schema Loader の `--repair-all` オプションを使用して、必要なストアドプロシージャを再インストールできます。 * **ScalarDB テーブル:** ScalarDB Schema Loader の **database.properties** を構成する方法の詳細については、[Configure ScalarDB for Cosmos DB for NoSQL](https://scalardb.scalar-labs.com/docs/latest/getting-started-with-scalardb#set-up-your-database-for-scalardb) を参照してください。 * **ScalarDL テーブル:** ScalarDL Schema Loader のカスタム値ファイルの設定方法の詳細については、[Configure a custom values file for ScalarDL Schema Loader](../helm-charts/configure-custom-values-scalardl-schema-loader.mdx) を参照してください。 -4. 次のように、ScalarDB Schema Loader または ScalarDL Schema Loader で `--repair-all` フラグを使用してストアド プロシージャを再作成します。 +4. 次のように、ScalarDB Schema Loader または ScalarDL Schema Loader で `--repair-all` フラグを使用してストアドプロシージャを再作成します。 * ScalarDB テーブル ```console - java -jar scalardb-schema-loader-.jar --config /path/to/ -f /path/to/ [--coordinator] --repair-all + java -jar scalardb-schema-loader-.jar --config /path/to/ -f /path/to/ [--coordinator] --repair-all ``` * ScalarDL Ledger テーブル ```console @@ -118,46 +119,46 @@ PITR 機能を使用する場合、Azure Cosmos DB は別のアカウントを ScalarDB Schema Loader でのテーブルの修復の詳細については、[Repair tables](https://scalardb.scalar-labs.com/docs/latest/schema-loader#repair-tables) を参照してください。 -5. 環境に応じて、必要に応じてテーブル構成を更新します。 復元されたアカウントの構成については、[Azure での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ (Azure Cosmos DB for NoSQL)](SetupDatabaseForAzure.mdx#azure-cosmos-db-for-nosql) を参照してください。 +5. 環境に応じて、必要に応じてテーブル構成を更新します。復元されたアカウントの構成については、[Azure での ScalarDB/ScalarDL デプロイ用のデータベースのセットアップ (Azure Cosmos DB for NoSQL)](SetupDatabaseForAzure.mdx#azure-cosmos-db-for-nosql) を参照してください。 ### Amazon RDS -PITR 機能を使用する場合、Amazon RDS は別のデータベース インスタンスを使用してデータを復元します。 したがって、カスタム値ファイル内のエンドポイント構成を更新する必要があります。 +PITR 機能を使用する場合、Amazon RDS は別のデータベースインスタンスを使用してデータを復元します。したがって、カスタム値ファイル内のエンドポイント構成を更新する必要があります。 #### ステップ -1. データベース インスタンスを復元します。 PITR を使用して Amazon RDS インスタンスを復元する方法の詳細については、Amazon の次の公式ドキュメントを参照してください。 +1. データベースインスタンスを復元します。PITR を使用して Amazon RDS インスタンスを復元する方法の詳細については、Amazon の次の公式ドキュメントを参照してください。 * [Restoring a DB instance to a specified time](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_PIT.html) * [Restoring a Multi-AZ DB cluster to a specified time](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_PIT.MultiAZDBCluster.html) -2. 環境に応じて、必要に応じてテーブル構成を更新します。 復元されたデータベース インスタンスの構成については、[AWS での ScalarDB/ScalarDL デプロイメント用のデータベースのセットアップ (Amazon RDS for MySQL、PostgreSQL、Oracle、および SQL Server)](SetupDatabaseForAWS.mdx#mysqlpostgresqloraclesql-server-用の-amazon-rds) を参照してください。 +2. 環境に応じて、必要に応じてテーブル構成を更新します。復元されたデータベースインスタンスの構成については、[AWS での ScalarDB/ScalarDL デプロイメント用のデータベースのセットアップ (Amazon RDS for MySQL、PostgreSQL、Oracle、および SQL Server)](SetupDatabaseForAWS.mdx#mysqlpostgresqloraclesql-server-用の-amazon-rds) を参照してください。 ### Amazon Aurora -PITR 機能を使用する場合、Amazon Aurora は別のデータベースクラスターを使用してデータを復元します。 したがって、カスタム値ファイル内のエンドポイント構成を更新する必要があります。 +PITR 機能を使用する場合、Amazon Aurora は別のデータベースクラスターを使用してデータを復元します。したがって、カスタム値ファイル内のエンドポイント構成を更新する必要があります。 #### ステップ -1. データベースクラスターを復元します。 PITR を使用して Amazon Aurora クラスターを復元する方法の詳細については。 Amazon の公式ドキュメント [Restoring a DB cluster to a specified time](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/aurora-pitr.html) を参照してください。 +1. データベースクラスターを復元します。PITR を使用して Amazon Aurora クラスターを復元する方法の詳細については。Amazon の公式ドキュメント [Restoring a DB cluster to a specified time](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/aurora-pitr.html) を参照してください。 -2. 環境に応じて、必要に応じてレプリカ (リーダー) を追加してデータベース クラスターをマルチ AZ クラスターにします。 +2. 環境に応じて、必要に応じてレプリカ (リーダー) を追加してデータベースクラスターをマルチ AZ クラスターにします。 - Amazon Aurora の PITR 機能は、マルチ AZ 構成を使用してデータベースクラスターを復元できません。 データベース クラスターをマルチ AZ クラスターとして復元する場合は、データベース クラスターの復元後にリーダーを追加する必要があります。 リーダーの追加方法の詳細については、Amazon の公式ドキュメント [Adding Aurora Replicas to a DB cluster](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/aurora-replicas-adding.html) を参照してください。 + Amazon Aurora の PITR 機能は、マルチ AZ 構成を使用してデータベースクラスターを復元できません。データベースクラスターをマルチ AZ クラスターとして復元する場合は、データベースクラスターの復元後にリーダーを追加する必要があります。リーダーの追加方法の詳細については、Amazon の公式ドキュメント [Adding Aurora Replicas to a DB cluster](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/aurora-replicas-adding.html) を参照してください。 -3. 環境に応じて、必要に応じてテーブル構成を更新します。 復元されたデータベースクラスターの構成については、[AWS での ScalarDB/ScalarDL デプロイメント用のデータベースのセットアップ (Amazon Aurora MySQL および Amazon Aurora PostgreSQL)](SetupDatabaseForAWS.mdx#amazon-aurora-mysql-と-amazon-aurora-postgresql) を参照してください。 +3. 環境に応じて、必要に応じてテーブル構成を更新します。復元されたデータベースクラスターの構成については、[AWS での ScalarDB/ScalarDL デプロイメント用のデータベースのセットアップ (Amazon Aurora MySQL および Amazon Aurora PostgreSQL)](SetupDatabaseForAWS.mdx#amazon-aurora-mysql-と-amazon-aurora-postgresql) を参照してください。 ### Azure Database for MySQL/PostgreSQL -PITR 機能を使用する場合、Azure Database for MySQL/PostgreSQL は別のサーバーを使用してデータを復元します。 したがって、カスタム値ファイル内のエンドポイント構成を更新する必要があります。 +PITR 機能を使用する場合、Azure Database for MySQL/PostgreSQL は別のサーバーを使用してデータを復元します。したがって、カスタム値ファイル内のエンドポイント構成を更新する必要があります。 #### ステップ -1. データベースサーバーを復元します。 PITR を使用して Azure Database for MySQL/PostgreSQL サーバーを復元する方法の詳細については、次を参照してください。 +1. データベースサーバーを復元します。PITR を使用して Azure Database for MySQL/PostgreSQL サーバーを復元する方法の詳細については、次を参照してください。 * [Point-in-time restore of a Azure Database for MySQL Flexible Server using Azure portal](https://learn.microsoft.com/en-us/azure/mysql/flexible-server/how-to-restore-server-portal) * [Backup and restore in Azure Database for PostgreSQL - Flexible Server](https://learn.microsoft.com/en-us/azure/postgresql/flexible-server/concepts-backup-restore) -2. 環境に応じて、必要に応じてテーブル構成を更新します。 復元されたデータベース サーバーの構成については、次を参照してください。 +2. 環境に応じて、必要に応じてテーブル構成を更新します。復元されたデータベースサーバーの構成については、次を参照してください。 * [Azure 上で ScalarDB/ScalarDL デプロイ用のデータベースをセットアップする (Azure Database for MySQL)](SetupDatabaseForAzure.mdx#azure-database-for-mysql) * [Azure 上で ScalarDB/ScalarDL デプロイ用のデータベースをセットアップする (Azure Database for PostgreSQL)](SetupDatabaseForAzure.mdx#azure-database-for-postgresql) diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/SetupDatabase.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/SetupDatabase.mdx index 139c74f0..4d778c82 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/SetupDatabase.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/SetupDatabase.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # ScalarDB/ScalarDL デプロイメント用のデータベースをセットアップする @@ -10,7 +11,7 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; -このガイドでは、クラウド サービス上で ScalarDB/ScalarDL を展開するためのデータベースをセットアップする方法について説明します。 +このガイドでは、クラウドサービス上で ScalarDB/ScalarDL を展開するためのデータベースをセットアップする方法について説明します。 * [AWS での ScalarDB/ScalarDL デプロイメント用のデータベースのセットアップ](SetupDatabaseForAWS.mdx) * [Azure 上で ScalarDB/ScalarDL デプロイメント用のデータベースをセットアップする](SetupDatabaseForAzure.mdx) diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/SetupDatabaseForAWS.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/SetupDatabaseForAWS.mdx index dfc16ae4..886bc251 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/SetupDatabaseForAWS.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/SetupDatabaseForAWS.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # AWS で ScalarDB/ScalarDL デプロイメント用のデータベースをセットアップする @@ -16,7 +17,7 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; ### 認証方法 -DynamoDB を使用する場合、ScalarDB/ScalarDL プロパティ ファイルに `REGION`、`ACCESS_KEY_ID`、および `SECRET_ACCESS_KEY` を次のように設定する必要があります。 +DynamoDB を使用する場合、ScalarDB/ScalarDL プロパティファイルに `REGION`、`ACCESS_KEY_ID`、および `SECRET_ACCESS_KEY` を次のように設定する必要があります。 ```properties scalar.db.contact_points= @@ -31,23 +32,23 @@ DynamoDB のプロパティの詳細については、次のドキュメント ### 必要な構成/手順 -DynamoDB はデフォルトで AWS で使用できます。 使用するために手動で何かを設定する必要はありません。 +DynamoDB はデフォルトで AWS で使用できます。使用するために手動で何かを設定する必要はありません。 ### オプションの構成/手順 #### ポイントインタイムリカバリを有効にする (運用環境で推奨) -DynamoDB のバックアップ/復元方法として PITR を有効にすることができます。 [ScalarDB Schema Loader](https://scalardb.scalar-labs.com/docs/latest/schema-loader) を使用してスキーマを作成すると、デフォルトでテーブルの PITR 機能が有効になります。 詳細については公式ドキュメントを参照してください。 +DynamoDB のバックアップ/復元方法として PITR を有効にすることができます。[ScalarDB Schema Loader](https://scalardb.scalar-labs.com/docs/latest/schema-loader) を使用してスキーマを作成すると、デフォルトでテーブルの PITR 機能が有効になります。詳細については公式ドキュメントを参照してください。 * [Point-in-time recovery for DynamoDB](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/PointInTimeRecovery.html) -ポイントインタイム リカバリ機能により自動的かつ継続的にバックアップが作成されるため、バックアップ操作のダウンタイム (一時停止期間) を短縮できるため、この機能をお勧めします。 Scalar 製品データのバックアップ/復元方法の詳細については、次のドキュメントを参照してください。 +ポイントインタイムリカバリ機能により自動的かつ継続的にバックアップが作成されるため、バックアップ操作のダウンタイム (一時停止期間) を短縮できるため、この機能をお勧めします。Scalar 製品データのバックアップ/復元方法の詳細については、次のドキュメントを参照してください。 * [Scalar 製品のバックアップ復元ガイド](BackupRestoreGuide.mdx) #### 監視を構成する (運用環境で推奨) -DynamoDB のネイティブ機能を使用して、DynamoDB のモニタリングとロギングを設定できます。 詳細については公式ドキュメントを参照してください。 +DynamoDB のネイティブ機能を使用して、DynamoDB のモニタリングとロギングを設定できます。詳細については公式ドキュメントを参照してください。 * [Monitoring and logging](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/monitoring.html) @@ -64,11 +65,11 @@ WAN 経由ではないプライベート内部接続によりシステムの安 #### 読み取り/書き込み容量の構成 (環境に応じてオプション) -要件に基づいて、DynamoDB テーブルの **読み取り/書き込み容量** を構成できます。 読み取り/書き込み容量の詳細については、公式ドキュメントを参照してください。 +要件に基づいて、DynamoDB テーブルの **読み取り/書き込み容量** を構成できます。読み取り/書き込み容量の詳細については、公式ドキュメントを参照してください。 * [Read/write capacity mode](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/HowItWorks.ReadWriteCapacityMode.html) -テーブルの作成時に、ScalarDB/DL Schema Loader を使用して読み取り/書き込み容量を構成できます。 ScalarDB/DL Schema Loader を使用して読み取り/書き込み容量 (RU) を構成する方法の詳細については、次のドキュメントを参照してください。 +テーブルの作成時に、ScalarDB/DL Schema Loader を使用して読み取り/書き込み容量を構成できます。ScalarDB/DL Schema Loader を使用して読み取り/書き込み容量 (RU) を構成する方法の詳細については、次のドキュメントを参照してください。 * [ScalarDB Schema Loader](https://scalardb.scalar-labs.com/docs/latest/schema-loader) @@ -76,7 +77,7 @@ WAN 経由ではないプライベート内部接続によりシステムの安 ### 認証方法 -RDS を使用する場合、ScalarDB/ScalarDL プロパティ ファイルに `JDBC_URL`、`USERNAME`、および `PASSWORD` を次のように設定する必要があります。 +RDS を使用する場合、ScalarDB/ScalarDL プロパティファイルに `JDBC_URL`、`USERNAME`、および `PASSWORD` を次のように設定する必要があります。 ```properties scalar.db.contact_points= @@ -85,15 +86,15 @@ scalar.db.password= scalar.db.storage=jdbc ``` -RDS(JDBCデータベース)のプロパティの詳細については、以下のドキュメントを参照してください。 +RDS (JDBCデータベース) のプロパティの詳細については、以下のドキュメントを参照してください。 * [Configure ScalarDB for JDBC databases](https://scalardb.scalar-labs.com/docs/latest/getting-started-with-scalardb#set-up-your-database-for-scalardb) ### 必要な構成/手順 -#### RDS データベース インスタンスを作成する +#### RDS データベースインスタンスを作成する -RDS データベース インスタンスを作成する必要があります。 詳細については公式ドキュメントを参照してください。 +RDS データベースインスタンスを作成する必要があります。詳細については公式ドキュメントを参照してください。 * [Configuring an Amazon RDS DB instance](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_RDS_Configuring.html) @@ -101,29 +102,29 @@ RDS データベース インスタンスを作成する必要があります。 #### 自動バックアップを有効にする (運用環境で推奨) -自動バックアップを有効にすることができます。 詳細については公式ドキュメントを参照してください。 +自動バックアップを有効にすることができます。詳細については公式ドキュメントを参照してください。 * [Working with backups](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_WorkingWithAutomatedBackups.html) -自動バックアップ機能によりポイントインタイムリカバリ機能が有効になるため、これをお勧めします。 データを特定の時点まで復元できます。 Scalar 製品で複数のデータベースを使用する場合、バックアップ操作のダウンタイム (一時停止時間) を短縮できます。 Scalar 製品データのバックアップ/復元方法の詳細については、次のドキュメントを参照してください。 +自動バックアップ機能によりポイントインタイムリカバリ機能が有効になるため、これをお勧めします。データを特定の時点まで復元できます。Scalar 製品で複数のデータベースを使用する場合、バックアップ操作のダウンタイム (一時停止時間) を短縮できます。Scalar 製品データのバックアップ/復元方法の詳細については、次のドキュメントを参照してください。 * [Scalar 製品のバックアップ復元ガイド](BackupRestoreGuide.mdx) #### 監視を構成する (運用環境で推奨) -RDS のネイティブ機能を使用して、RDS の監視とログ記録を構成できます。 詳細については公式ドキュメントを参照してください。 +RDS のネイティブ機能を使用して、RDS の監視とログ記録を構成できます。詳細については公式ドキュメントを参照してください。 * [Monitoring metrics in an Amazon RDS instance](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_Monitoring.html) * [Monitoring events, logs, and streams in an Amazon RDS DB instance](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_Monitor_Logs_Events.html) メトリクスとログは、運用環境で問題が発生したときにそれを調査するのに役立つため、これをお勧めします。 -#### パブリック アクセスを無効にする (運用環境で推奨) +#### パブリックアクセスを無効にする (運用環境で推奨) -パブリックアクセスはデフォルトでは無効になっています。 次のように、EKS クラスター上の Scalar 製品ポッドから RDS データベース インスタンスにアクセスできます。 +パブリックアクセスはデフォルトでは無効になっています。次のように、EKS クラスター上の Scalar 製品ポッドから RDS データベースインスタンスにアクセスできます。 -* EKS クラスターと同じ VPC 上に RDS データベース インスタンスを作成します。 -* [VPC peering](https://docs.aws.amazon.com/vpc/latest/peering/what-is-vpc-peering.html) を使用して、Scalar 製品デプロイの RDS 用 VPC と EKS クラスター用 VPC を接続します。 (// TODO: この機能を Scalar 製品でテストする必要があります。) +* EKS クラスターと同じ VPC 上に RDS データベースインスタンスを作成します。 +* [VPC peering](https://docs.aws.amazon.com/vpc/latest/peering/what-is-vpc-peering.html) を使用して、Scalar 製品デプロイの RDS 用 VPC と EKS クラスター用 VPC を接続します。(// TODO: この機能を Scalar 製品でテストする必要があります。) WAN 経由ではないプライベート内部接続によりシステムの安全性が高まるため、これをお勧めします。 @@ -131,7 +132,7 @@ WAN 経由ではないプライベート内部接続によりシステムの安 ### 認証方法 -Amazon Aurora を使用する場合、ScalarDB/ScalarDL プロパティ ファイルに `JDBC_URL`、`USERNAME`、および `PASSWORD` を次のように設定する必要があります。 +Amazon Aurora を使用する場合、ScalarDB/ScalarDL プロパティファイルに `JDBC_URL`、`USERNAME`、および `PASSWORD` を次のように設定する必要があります。 ```properties scalar.db.contact_points= @@ -148,7 +149,7 @@ Amazon Aurora (JDBC データベース) のプロパティの詳細について #### Amazon Aurora DB クラスターを作成する -Amazon Aurora DB クラスターを作成する必要があります。 詳細については公式ドキュメントを参照してください。 +Amazon Aurora DB クラスターを作成する必要があります。詳細については公式ドキュメントを参照してください。 * [Configuring your Amazon Aurora DB cluster](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/CHAP_AuroraSettingUp.html) @@ -156,9 +157,9 @@ Amazon Aurora DB クラスターを作成する必要があります。 詳細 #### バックアップ構成を構成します (環境に応じてオプション) -Amazon Aurora はデフォルトで自動的にバックアップを取得します。 バックアップ機能を手動で有効にする必要はありません。 +Amazon Aurora はデフォルトで自動的にバックアップを取得します。バックアップ機能を手動で有効にする必要はありません。 -バックアップ保持期間やバックアップウィンドウなどのバックアップ構成を変更する場合は、それらを構成できます。 詳細については公式ドキュメントを参照してください。 +バックアップ保持期間やバックアップウィンドウなどのバックアップ構成を変更する場合は、それらを構成できます。詳細については公式ドキュメントを参照してください。 * [Backing up and restoring an Amazon Aurora DB cluster](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/BackupRestoreAurora.html) @@ -168,18 +169,18 @@ Scalar 製品データのバックアップ/復元方法の詳細については #### 監視を構成する (運用環境で推奨) -Amazon Aurora のネイティブ機能を使用して、Amazon Aurora のモニタリングとロギングを設定できます。 詳細については公式ドキュメントを参照してください。 +Amazon Aurora のネイティブ機能を使用して、Amazon Aurora のモニタリングとロギングを設定できます。詳細については公式ドキュメントを参照してください。 * [Monitoring metrics in an Amazon Aurora cluster](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/MonitoringAurora.html) * [Monitoring events, logs, and streams in an Amazon Aurora DB cluster](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/CHAP_Monitor_Logs_Events.html) メトリクスとログは、運用環境で問題が発生したときにそれを調査するのに役立つため、これをお勧めします。 -#### パブリック アクセスを無効にする (運用環境で推奨) +#### パブリックアクセスを無効にする (運用環境で推奨) -パブリックアクセスはデフォルトでは無効になっています。 次のように、EKS クラスター上の Scalar 製品ポッドから Amazon Aurora DB クラスターにアクセスできます。 +パブリックアクセスはデフォルトでは無効になっています。次のように、EKS クラスター上の Scalar 製品ポッドから Amazon Aurora DB クラスターにアクセスできます。 * EKS クラスターと同じ VPC 上に Amazon Aurora DB クラスターを作成します。 -* [VPC peering](https://docs.aws.amazon.com/vpc/latest/peering/what-is-vpc-peering.html) を使用して、Scalar 製品デプロイメント用の Amazon Aurora DB クラスターの VPC と EKS クラスターの VPC を接続します。 (// TODO: この機能を Scalar 製品でテストする必要があります。) +* [VPC peering](https://docs.aws.amazon.com/vpc/latest/peering/what-is-vpc-peering.html) を使用して、Scalar 製品デプロイメント用の Amazon Aurora DB クラスターの VPC と EKS クラスターの VPC を接続します。(// TODO: この機能を Scalar 製品でテストする必要があります。) WAN 経由ではないプライベート内部接続によりシステムの安全性が高まるため、これをお勧めします。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/SetupDatabaseForAzure.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/SetupDatabaseForAzure.mdx index 00f79d77..26b7bfe7 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/SetupDatabaseForAzure.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/SetupDatabaseForAzure.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Azure で ScalarDB/ScalarDL デプロイ用のデータベースをセットアップする @@ -16,7 +17,7 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; ### 認証方法 -Cosmos DB for NoSQL を使用する場合は、ScalarDB/ScalarDL プロパティ ファイルで `COSMOS_DB_URI` と `COSMOS_DB_KEY` を次のように設定する必要があります。 +Cosmos DB for NoSQL を使用する場合は、ScalarDB/ScalarDL プロパティファイルで `COSMOS_DB_URI` と `COSMOS_DB_KEY` を次のように設定する必要があります。 ```properties scalar.db.contact_points= @@ -32,13 +33,13 @@ Cosmos DB for NoSQL のプロパティの詳細については、次のドキュ #### Azure Cosmos DB アカウントを作成する -NoSQL (コア) API を使用して Azure Cosmos DB アカウントを作成する必要があります。 **Capacity mode**を作成するときは、**Provisioned throughput**として設定する必要があります。 詳細については公式ドキュメントを参照してください。 +NoSQL (コア) API を使用して Azure Cosmos DB アカウントを作成する必要があります。**Capacity mode**を作成するときは、**Provisioned throughput**として設定する必要があります。詳細については公式ドキュメントを参照してください。 * [Quickstart: Create an Azure Cosmos DB account, database, container, and items from the Azure portal](https://learn.microsoft.com/en-us/azure/cosmos-db/nosql/quickstart-portal) #### デフォルトの整合性構成を構成する -**Default consistency level**を**Strong**に設定する必要があります。 詳細については公式ドキュメントを参照してください。 +**Default consistency level**を**Strong**に設定する必要があります。詳細については公式ドキュメントを参照してください。 * [Configure the default consistency level](https://learn.microsoft.com/en-us/azure/cosmos-db/nosql/how-to-manage-consistency#config/ure-the-default-consistency-level) @@ -46,37 +47,37 @@ NoSQL (コア) API を使用して Azure Cosmos DB アカウントを作成す #### バックアップ構成を構成する (実稼働環境で推奨) -PITR の **Backup modes**を **Continuous backup mode**として構成できます。 詳細については公式ドキュメントを参照してください。 +PITR の **Backup modes**を **Continuous backup mode**として構成できます。詳細については公式ドキュメントを参照してください。 * [Backup modes](https://learn.microsoft.com/en-us/azure/cosmos-db/online-backup-and-restore#backup-modes) -継続バックアップ モードでは自動的かつ継続的にバックアップが取得されるため、バックアップ操作のダウンタイム (一時停止期間) を短縮できるため、このモードをお勧めします。 Scalar 製品データのバックアップ/復元方法の詳細については、次のドキュメントを参照してください。 +継続バックアップモードでは自動的かつ継続的にバックアップが取得されるため、バックアップ操作のダウンタイム (一時停止期間) を短縮できるため、このモードをお勧めします。Scalar 製品データのバックアップ/復元方法の詳細については、次のドキュメントを参照してください。 * [Scalar 製品のバックアップ復元ガイド](BackupRestoreGuide.mdx) -#### Configure monitoring (Recommended in the production environment) +#### 監視を構成する (運用環境で推奨) -You can configure the monitoring of Cosmos DB using its native feature. Please refer to the official document for more details. +Cosmos DB の監視は、ネイティブ機能を使用して構成できます。詳細については、公式ドキュメントを参照してください。 -* [Monitor Azure Cosmos DB](https://learn.microsoft.com/en-us/azure/cosmos-db/monitor) +* [Azure Cosmos DB を監視する](https://learn.microsoft.com/en-us/azure/cosmos-db/monitor) -It is recommended since the metrics and logs help you to investigate some issues in the production environment when they happen. +メトリックとログは、運用環境で問題が発生したときに調査するのに役立つため、推奨されます。 -#### サービス エンドポイントを有効にする (運用環境で推奨) +#### サービスエンドポイントを有効にする (運用環境で推奨) -仮想ネットワーク (VNet) の特定のサブネットからのアクセスのみを許可するように Azure Cosmos DB アカウントを構成できます。 詳細については公式ドキュメントを参照してください。 +仮想ネットワーク (VNet) の特定のサブネットからのアクセスのみを許可するように Azure Cosmos DB アカウントを構成できます。詳細については公式ドキュメントを参照してください。 * [Configure access to Azure Cosmos DB from virtual networks (VNet)](https://learn.microsoft.com/en-us/azure/cosmos-db/how-to-configure-vnet-service-endpoint) WAN 経由ではないプライベート内部接続によりシステムの安全性が高まるため、これをお勧めします。 -#### リクエスト ユニットを構成します (環境に応じてオプション) +#### リクエストユニットを構成します (環境に応じてオプション) -要件に基づいて Cosmos DB の **Request Units** を構成できます。 リクエスト単位の詳細については公式ドキュメントを参照してください。 +要件に基づいて Cosmos DB の **Request Units** を構成できます。リクエスト単位の詳細については公式ドキュメントを参照してください。 * [Request Units in Azure Cosmos DB](https://learn.microsoft.com/en-us/azure/cosmos-db/request-units) -テーブルの作成時に、ScalarDB/DL Schema Loader を使用してリクエスト ユニットを構成できます。 ScalarDB/DL Schema Loader を使用してリクエスト ユニット (RU) を構成する方法の詳細については、次のドキュメントを参照してください。 +テーブルの作成時に、ScalarDB/DL Schema Loader を使用してリクエストユニットを構成できます。ScalarDB/DL Schema Loader を使用してリクエストユニット (RU) を構成する方法の詳細については、次のドキュメントを参照してください。 * [ScalarDB Schema Loader](https://scalardb.scalar-labs.com/docs/latest/schema-loader) @@ -84,7 +85,7 @@ WAN 経由ではないプライベート内部接続によりシステムの安 ### 認証方法 -Azure Database for MySQL を使用する場合は、ScalarDB/ScalarDL プロパティ ファイルで `JDBC_URL`、`USERNAME`、および `PASSWORD` を次のように設定する必要があります。 +Azure Database for MySQL を使用する場合は、ScalarDB/ScalarDL プロパティファイルで `JDBC_URL`、`USERNAME`、および `PASSWORD` を次のように設定する必要があります。 ```properties scalar.db.contact_points= @@ -99,13 +100,13 @@ Azure Database for MySQL (JDBC データベース) のプロパティの詳細 ### 必要な構成/手順 -#### データベース サーバーを作成する +#### データベースサーバーを作成する -データベースサーバーを作成する必要があります。 詳細については公式ドキュメントを参照してください。 +データベースサーバーを作成する必要があります。詳細については公式ドキュメントを参照してください。 * [Quickstart: Use the Azure portal to create an Azure Database for MySQL Flexible Server](https://learn.microsoft.com/en-us/azure/mysql/flexible-server/quickstart-create-server-portal) -導入には **Single Server** または **Flexible Server** を選択できます。 ただし、Azure では Flexible Server が推奨されます。 このドキュメントは、Flexible Server の使用を前提としています。 導入モデルの詳細については、公式ドキュメントを参照してください。 +導入には **Single Server** または **Flexible Server** を選択できます。ただし、Azure では Flexible Server が推奨されます。このドキュメントは、Flexible Server の使用を前提としています。導入モデルの詳細については、公式ドキュメントを参照してください。 * [What is Azure Database for MySQL?](https://learn.microsoft.com/en-us/azure/mysql/single-server/overview#deployment-models) @@ -113,9 +114,9 @@ Azure Database for MySQL (JDBC データベース) のプロパティの詳細 #### バックアップ構成を構成します (環境に応じてオプション) -Azure Database for MySQL は、既定でバックアップを取得します。 バックアップ機能を手動で有効にする必要はありません。 +Azure Database for MySQL は、既定でバックアップを取得します。バックアップ機能を手動で有効にする必要はありません。 -バックアップの保持期間など、一部のバックアップ構成を変更する場合は、それを構成できます。 詳細については公式ドキュメントを参照してください。 +バックアップの保持期間など、一部のバックアップ構成を変更する場合は、それを構成できます。詳細については公式ドキュメントを参照してください。 * [Backup and restore in Azure Database for MySQL Flexible Server](https://learn.microsoft.com/en-us/azure/mysql/flexible-server/concepts-backup-restore) @@ -125,22 +126,22 @@ Scalar 製品データのバックアップ/復元方法の詳細については #### 監視を構成する (運用環境で推奨) -Azure Database for MySQL のネイティブ機能を使用して、その監視を構成できます。 詳細については公式ドキュメントを参照してください。 +Azure Database for MySQL のネイティブ機能を使用して、その監視を構成できます。詳細については公式ドキュメントを参照してください。 * [Monitor Azure Database for MySQL Flexible Server](https://learn.microsoft.com/en-us/azure/mysql/flexible-server/concepts-monitoring) メトリクスとログは、運用環境で問題が発生したときにそれを調査するのに役立つため、これをお勧めします。 -#### パブリック アクセスを無効にする (運用環境で推奨) +#### パブリックアクセスを無効にする (運用環境で推奨) -**Private access (VNet Integration)** を **Connectivity method** として構成できます。 詳細については公式ドキュメントを参照してください。 +**Private access (VNet Integration)** を **Connectivity method** として構成できます。詳細については公式ドキュメントを参照してください。 * [Connectivity and networking concepts for Azure Database for MySQL - Flexible Server](https://learn.microsoft.com/en-us/azure/mysql/flexible-server/concepts-networking) -次のように、AKS クラスター上の Scalar 製品ポッドからデータベース サーバーにアクセスできます。 +次のように、AKS クラスター上の Scalar 製品ポッドからデータベースサーバーにアクセスできます。 -* AKS クラスターと同じ VNet 上にデータベース サーバーを作成します。 -* [Virtual network peering](https://learn.microsoft.com/en-us/azure/virtual-network/virtual-network-peering-overview) を使用して、Scalar 製品デプロイのデータベース サーバー用の VNet と AKS クラスター用の VNet を接続します。 (// TODO: この機能を Scalar 製品でテストする必要があります。) +* AKS クラスターと同じ VNet 上にデータベースサーバーを作成します。 +* [Virtual network peering](https://learn.microsoft.com/en-us/azure/virtual-network/virtual-network-peering-overview) を使用して、Scalar 製品デプロイのデータベースサーバー用の VNet と AKS クラスター用の VNet を接続します。(// TODO: この機能を Scalar 製品でテストする必要があります。) WAN 経由ではないプライベート内部接続によりシステムの安全性が高まるため、これをお勧めします。 @@ -148,7 +149,7 @@ WAN 経由ではないプライベート内部接続によりシステムの安 ### 認証方法 -Azure Database for PostgreSQL を使用する場合は、ScalarDB/ScalarDL プロパティ ファイルで `JDBC_URL`、`USERNAME`、および `PASSWORD` を次のように設定する必要があります。 +Azure Database for PostgreSQL を使用する場合は、ScalarDB/ScalarDL プロパティファイルで `JDBC_URL`、`USERNAME`、および `PASSWORD` を次のように設定する必要があります。 ```properties scalar.db.contact_points= @@ -163,13 +164,13 @@ Azure Database for PostgreSQL (JDBC データベース) のプロパティの詳 ### 必要な構成/手順 -#### データベース サーバーを作成する +#### データベースサーバーを作成する -データベースサーバーを作成する必要があります。 詳細については公式ドキュメントを参照してください。 +データベースサーバーを作成する必要があります。詳細については公式ドキュメントを参照してください。 * [Quickstart: Create an Azure Database for PostgreSQL - Flexible Server in the Azure portal](https://learn.microsoft.com/en-us/azure/postgresql/flexible-server/quickstart-create-server-portal) -導入には **Single Server** または **Flexible Server** を選択できます。 ただし、Azure では Flexible Server が推奨されます。 このドキュメントは、Flexible Server の使用を前提としています。 導入モデルの詳細については、公式ドキュメントを参照してください。 +導入には **Single Server** または **Flexible Server** を選択できます。ただし、Azure では Flexible Server が推奨されます。このドキュメントは、Flexible Server の使用を前提としています。導入モデルの詳細については、公式ドキュメントを参照してください。 * [What is Azure Database for PostgreSQL?](https://learn.microsoft.com/en-us/azure/postgresql/single-server/overview#deployment-models) @@ -177,9 +178,9 @@ Azure Database for PostgreSQL (JDBC データベース) のプロパティの詳 #### バックアップ構成を構成します (環境に応じてオプション) -Azure Database for PostgreSQL は、既定でバックアップを取得します。 バックアップ機能を手動で有効にする必要はありません。 +Azure Database for PostgreSQL は、既定でバックアップを取得します。バックアップ機能を手動で有効にする必要はありません。 -バックアップの保持期間など、一部のバックアップ構成を変更する場合は、それを構成できます。 詳細については公式ドキュメントを参照してください。 +バックアップの保持期間など、一部のバックアップ構成を変更する場合は、それを構成できます。詳細については公式ドキュメントを参照してください。 * [Backup and restore in Azure Database for PostgreSQL - Flexible Server](https://learn.microsoft.com/en-us/azure/postgresql/flexible-server/concepts-backup-restore) @@ -189,21 +190,21 @@ Scalar 製品データのバックアップ/復元方法の詳細については #### 監視を構成する (運用環境で推奨) -Azure Database for PostgreSQL のネイティブ機能を使用して、その監視を構成できます。 詳細については公式ドキュメントを参照してください。 +Azure Database for PostgreSQL のネイティブ機能を使用して、その監視を構成できます。詳細については公式ドキュメントを参照してください。 * [Monitor metrics on Azure Database for PostgreSQL - Flexible Server](https://learn.microsoft.com/en-us/azure/postgresql/flexible-server/concepts-monitoring) メトリクスとログは、運用環境で問題が発生したときにそれを調査するのに役立つため、これをお勧めします。 -#### パブリック アクセスを無効にする (運用環境で推奨) +#### パブリックアクセスを無効にする (運用環境で推奨) -**Private access (VNet Integration)** を **Connectivity method** として構成できます。 詳細については公式ドキュメントを参照してください。 +**Private access (VNet Integration)** を **Connectivity method** として構成できます。詳細については公式ドキュメントを参照してください。 * [Networking overview for Azure Database for PostgreSQL - Flexible Server](https://learn.microsoft.com/en-us/azure/postgresql/flexible-server/concepts-networking) -次のように、AKS クラスター上の Scalar 製品ポッドからデータベース サーバーにアクセスできます。 +次のように、AKS クラスター上の Scalar 製品ポッドからデータベースサーバーにアクセスできます。 -* AKS クラスターと同じ VNet 上にデータベース サーバーを作成します。 -* [Virtual network peering](https://learn.microsoft.com/en-us/azure/virtual-network/virtual-network-peering-overview) を使用して、Scalar 製品デプロイのデータベース サーバー用の VNet と AKS クラスター用の VNet を接続します。 (// TODO: この機能を Scalar 製品でテストする必要があります。) +* AKS クラスターと同じ VNet 上にデータベースサーバーを作成します。 +* [Virtual network peering](https://learn.microsoft.com/en-us/azure/virtual-network/virtual-network-peering-overview) を使用して、Scalar 製品デプロイのデータベースサーバー用の VNet と AKS クラスター用の VNet を接続します。(// TODO: この機能を Scalar 製品でテストする必要があります。) WAN 経由ではないプライベート内部接続によりシステムの安全性が高まるため、これをお勧めします。 diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/alerts/Envoy.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/alerts/Envoy.mdx index 441ba8b6..4804ac8b 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/alerts/Envoy.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/alerts/Envoy.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Envoy アラート @@ -12,7 +13,7 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; ## EnvoyClusterDown -これは最も重要なアラートであり、Envoy クラスターがリクエストを処理できないことを示します。 このアラートは最優先で処理する必要があります。 +これは最も重要なアラートであり、Envoy クラスターがリクエストを処理できないことを示します。このアラートは最優先で処理する必要があります。 ### アラートの例 @@ -43,12 +44,12 @@ Alert: Envoy cluster is down - critical * `kubectl get deployments. prod-scalardl-envoy` で設定されたレプリカの数を確認します。 * `kubectl describe deployments. prod-scalardl-envoy` はデプロイメントを説明するために設定されたレプリカの数を確認します。 * `kubectl get node -o wide` でノードのステータスを確認します。 -* ログ サーバーをチェックして、モニター サーバー `/log/kubernetes//-/kube.log` 上の kubernetes ログで障害の根本原因を特定します。 -* 既知の問題があるかどうかをクラウド プロバイダーに確認してください。 たとえば、Azure の彫像は [ここ](https://status.azure.com/en-us/status) で確認できます。 +* ログサーバーをチェックして、モニターサーバー `/log/kubernetes//-/kube.log` 上の kubernetes ログで障害の根本原因を特定します。 +* 既知の問題があるかどうかをクラウドプロバイダーに確認してください。たとえば、Azure の彫像は[ここ](https://status.azure.com/en-us/status)で確認できます。 ## EnvoyClusterDegraded -このアラートは、Kubernetes クラスターが Envoy ポッドを開始できないかどうかを示します。これは、クラスターにデプロイメントを実行するための十分なリソースがない、または 1 つまたは複数の Kubernetes ノードが失われたことを意味します。 +このアラートは、Kubernetes クラスターが Envoy ポッドを開始できないかどうかを示します。これは、クラスターにデプロイメントを実行するための十分なリソースがない、または1つまたは複数の Kubernetes ノードが失われたことを意味します。 ### アラートの例 @@ -76,11 +77,11 @@ Alert: Envoy cluster is running in a degraded mode - warning ### 必要なアクション -* ログ サーバーをチェックして、モニター サーバー `/log/kubernetes//-/kube.log` または `kubectl logs prod-scalardl-envoy-xxxx-yyyy` 上の kubernetes ログに関する障害の根本原因を特定します。 +* ログサーバーをチェックして、モニターサーバー `/log/kubernetes//-/kube.log` または `kubectl logs prod-scalardl-envoy-xxxx-yyyy` 上の kubernetes ログに関する障害の根本原因を特定します。 * `kubectl describe deployments prod-scalardl-envoy` で kubernetes のデプロイメントを確認します。 -* `kubectl get replicasets.apps` でレプリカ セットを確認します。 +* `kubectl get replicasets.apps` でレプリカセットを確認します。 * `kubectl get node -o wide` でノードのステータスを確認します。 -* 既知の問題があるかどうかをクラウド プロバイダーに確認してください。 たとえば、Azure の彫像は [ここ](https://status.azure.com/en-us/status) で確認できます。 +* 既知の問題があるかどうかをクラウドプロバイダーに確認してください。たとえば、Azure の彫像は[ここ](https://status.azure.com/en-us/status)で確認できます。 ## EnvoyPodsPending diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/alerts/Ledger.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/alerts/Ledger.mdx index 5cd3fe9e..23bd89ab 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/alerts/Ledger.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/alerts/Ledger.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsJapanese --- # Ledger アラート @@ -9,7 +10,7 @@ import TranslationBanner from '/src/components/_translation-ja-jp.mdx'; ## LedgerClusterDown -これは最も重要なアラートであり、Ledger クラスターがリクエストを処理できないことを示します。 このアラートは最優先で処理する必要があります。 +これは最も重要なアラートであり、Ledger クラスターがリクエストを処理できないことを示します。このアラートは最優先で処理する必要があります。 ### アラートの例 @@ -40,12 +41,12 @@ Alert: Ledger cluster is down - critical * `kubectl get deployments. prod-scalardl-ledger` で設定されたレプリカの数を確認します。 * `kubectl describe deployments. prod-scalardl-ledger` はデプロイメントを説明するために設定されたレプリカの数を確認します。 * `kubectl get node -o wide` でノードのステータスを確認します。 -* ログ サーバーをチェックして、モニター サーバー `/log/kubernetes//-/kube.log` 上の kubernetes ログで障害の根本原因を特定します。 -* 既知の問題があるかどうかをクラウド プロバイダーに確認してください。 たとえば、Azure の彫像は [ここ](https://status.azure.com/en-us/status) で確認できます。 +* ログサーバーをチェックして、モニターサーバー `/log/kubernetes//-/kube.log` 上の kubernetes ログで障害の根本原因を特定します。 +* 既知の問題があるかどうかをクラウドプロバイダーに確認してください。たとえば、Azure の彫像は[ここ](https://status.azure.com/en-us/status)で確認できます。 ## LedgerClusterDegraded -このアラートは、Kubernetes クラスターが Ledger ポッドを開始できないかどうかを示します。これは、クラスターにデプロイメントを実行するための十分なリソースがない、または 1 つまたは複数の Kubernetes ノードが失われたことを意味します。 +このアラートは、Kubernetes クラスターが Ledger ポッドを開始できないかどうかを示します。これは、クラスターにデプロイメントを実行するための十分なリソースがない、または1つまたは複数の Kubernetes ノードが失われたことを意味します。 ### アラートの例 @@ -73,11 +74,11 @@ Alert: Ledger cluster is running in a degraded mode - warning ### 必要なアクション -* ログ サーバーをチェックして、モニター サーバー `/log/kubernetes//-/kube.log` 上の kubernetes ログに関する障害の根本原因を特定します。 +* ログサーバーをチェックして、モニターサーバー `/log/kubernetes//-/kube.log` 上の kubernetes ログに関する障害の根本原因を特定します。 * `kubectl describe deployments prod-scalardl-ledger` で kubernetes のデプロイメントを確認します。 -* `kubectl get replicasets.apps` でレプリカ セットを確認します。 +* `kubectl get replicasets.apps` でレプリカセットを確認します。 * `kubectl get node -o wide` でノードのステータスを確認します。 -* 既知の問題があるかどうかをクラウド プロバイダーに確認してください。 たとえば、Azure の彫像は [ここ](https://status.azure.com/en-us/status) で確認できます。 +* 既知の問題があるかどうかをクラウドプロバイダーに確認してください。たとえば、Azure の彫像は[ここ](https://status.azure.com/en-us/status)で確認できます。 ## LedgerPodsPending diff --git a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/alerts/README.mdx b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/alerts/README.mdx index 72f56b37..5f4ddb73 100644 --- a/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/alerts/README.mdx +++ b/i18n/versioned_docs/ja-jp/docusaurus-plugin-content-docs/version-3.13/scalar-kubernetes/alerts/README.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsJapanese --- # Scalar アラート diff --git a/versioned_docs/version-3.13/glossary.mdx b/versioned_docs/version-3.13/glossary.mdx new file mode 100644 index 00000000..9d609f88 --- /dev/null +++ b/versioned_docs/version-3.13/glossary.mdx @@ -0,0 +1,119 @@ +--- +tags: + - Community + - Enterprise Standard + - Enterprise Premium +displayed_sidebar: docsEnglish +--- + +# Glossary + +This glossary includes database and distributed-system terms that are often used when using ScalarDB. + +## ACID + +Atomicity, consistency, isolation, and durability (ACID) is a set of properties that ensure database transactions are processed reliably, maintaining integrity even in cases of errors or system failures. + +## concurrency control + +Concurrency control in databases ensures that multiple transactions can occur simultaneously without causing data inconsistency, usually through mechanisms like locking or timestamp ordering. + +## consensus + +Consensus in distributed systems refers to the process of achieving agreement among multiple computers or nodes on a single data value or system state. + +## data federation + +Data federation is the process of integrating data from different sources without moving the data, creating a unified view for querying and analysis. + +## data mesh + +A data mesh is a decentralized data architecture that enables domain teams to independently perform cross-domain analysis, addressing scalability and ownership challenges. + +## data virtualization + +Data virtualization is similar to data federation in many aspects, meaning that it virtualizes multiple data sources into a unified view, simplifying queries without moving the data. + +## database anomalies + +Database anomalies are inconsistencies or errors in data that can occur when operations such as insertions, updates, or deletions are performed without proper transaction management. + +## federation engine + +A federation engine facilitates data integration and querying across multiple disparate data sources, often as part of a data federation architecture. + +## global transaction + +A global transaction spans multiple databases or distributed systems and ensures that all involved systems commit or roll back changes as a single unit. + +## heterogeneous databases + +Heterogeneous databases refer to systems composed of different database technologies that may have distinct data models, query languages, and transaction mechanisms. + +## HTAP + +Hybrid transactional/analytical processing (HTAP) refers to a system that can handle both transactional and analytical workloads concurrently on the same data set, removing the need for separate databases. + +## JDBC + +Java Database Connectivity (JDBC) is an API that allows Java applications to interact with databases, providing methods for querying and updating data in relational databases. + +## linearizability + +Linearizability is a strong consistency model in distributed systems where operations appear to occur atomically in some order, and each operation takes effect between its start and end. + +## NoSQL databases + +NoSQL databases are non-relational databases designed for specific data models, such as document, key-value, wide-column, or graph stores, often used for handling large-scale, distributed data. + +## Paxos + +Paxos is a family of protocols used in distributed systems to achieve consensus, even in the presence of node failures. + +## PITR + +Point-in-time recovery (PITR) allows a database to be restored to a previous state at any specific time, usually after an unintended event like data corruption. + +## polystores + +Polystores are database architectures that allow users to interact with multiple, heterogeneous data stores, each optimized for a specific workload or data type, as if they were a single system. + +## read-committed isolation + +Read-committed isolation is an isolation level where each transaction sees only committed data, preventing dirty reads but allowing non-repeatable reads. + +## relational databases + +Relational databases store data in tables with rows and columns, using a structured query language (SQL) to define, query, and manipulate the data. + +## replication + +Replication in databases involves copying and distributing data across multiple machines or locations to ensure reliability, availability, and fault tolerance. + +## Saga + +The Saga pattern is a method for managing long-running transactions in a distributed system, where each operation in the transaction is followed by a compensating action in case of failure. + +## serializable isolation + +Serializable isolation (serializability) is the highest isolation level in transactional systems, ensuring that the outcome of concurrently executed transactions is the same as if they were executed sequentially. + +## snapshot isolation + +Snapshot isolation is an isolation level that allows transactions to read a consistent snapshot of the database, protecting them from seeing changes made by other transactions until they complete. + +## TCC + +Try-Confirm/Cancel (TCC) is a pattern for distributed transactions that splits an operation into three steps, allowing for coordination and recovery across multiple systems. + +## transaction + +A transaction in databases is a sequence of operations treated as a single logical unit of work, ensuring consistency and integrity, typically conforming to ACID properties. + +## transaction manager + +A transaction manager coordinates the execution of transactions across multiple systems or databases, ensuring that all steps of the transaction succeed or fail as a unit. + +## two-phase commit + +Two-phase commit is a protocol for ensuring all participants in a distributed transaction either commit or roll back the transaction, ensuring consistency across systems. diff --git a/versioned_docs/version-3.13/helm-charts/configure-custom-values-envoy.mdx b/versioned_docs/version-3.13/helm-charts/configure-custom-values-envoy.mdx index bfa40a0c..57f7b0cd 100644 --- a/versioned_docs/version-3.13/helm-charts/configure-custom-values-envoy.mdx +++ b/versioned_docs/version-3.13/helm-charts/configure-custom-values-envoy.mdx @@ -2,13 +2,14 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- +# Configure a custom values file for Scalar Envoy + import Tabs from '@theme/Tabs'; import TabItem from '@theme/TabItem'; -# Configure a custom values file for Scalar Envoy - This document explains how to create your custom values file for the Scalar Envoy chart. If you want to know the details of the parameters, please refer to the [README](https://github.com/scalar-labs/helm-charts/blob/main/charts/envoy/README.md) of the Scalar Envoy chart. ## Configure custom values for Scalar Envoy chart diff --git a/versioned_docs/version-3.13/helm-charts/configure-custom-values-file.mdx b/versioned_docs/version-3.13/helm-charts/configure-custom-values-file.mdx index 7d1593ca..9e59653a 100644 --- a/versioned_docs/version-3.13/helm-charts/configure-custom-values-file.mdx +++ b/versioned_docs/version-3.13/helm-charts/configure-custom-values-file.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Configure a custom values file for Scalar Helm Charts diff --git a/versioned_docs/version-3.13/helm-charts/configure-custom-values-scalar-admin-for-kubernetes.mdx b/versioned_docs/version-3.13/helm-charts/configure-custom-values-scalar-admin-for-kubernetes.mdx index 9bf07b18..43b8f5e3 100644 --- a/versioned_docs/version-3.13/helm-charts/configure-custom-values-scalar-admin-for-kubernetes.mdx +++ b/versioned_docs/version-3.13/helm-charts/configure-custom-values-scalar-admin-for-kubernetes.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Configure a custom values file for Scalar Admin for Kubernetes diff --git a/versioned_docs/version-3.13/helm-charts/configure-custom-values-scalar-manager.mdx b/versioned_docs/version-3.13/helm-charts/configure-custom-values-scalar-manager.mdx index 06ea0970..d25f8b9f 100644 --- a/versioned_docs/version-3.13/helm-charts/configure-custom-values-scalar-manager.mdx +++ b/versioned_docs/version-3.13/helm-charts/configure-custom-values-scalar-manager.mdx @@ -1,6 +1,7 @@ --- tags: - Enterprise Option +displayed_sidebar: docsEnglish --- # Configure a custom values file for Scalar Manager diff --git a/versioned_docs/version-3.13/helm-charts/configure-custom-values-scalardb-analytics-postgresql.mdx b/versioned_docs/version-3.13/helm-charts/configure-custom-values-scalardb-analytics-postgresql.mdx index 6d71b780..5d1eb638 100644 --- a/versioned_docs/version-3.13/helm-charts/configure-custom-values-scalardb-analytics-postgresql.mdx +++ b/versioned_docs/version-3.13/helm-charts/configure-custom-values-scalardb-analytics-postgresql.mdx @@ -1,6 +1,7 @@ --- tags: - Community +displayed_sidebar: docsEnglish --- # Configure a custom values file for ScalarDB Analytics with PostgreSQL diff --git a/versioned_docs/version-3.13/helm-charts/configure-custom-values-scalardb-cluster.mdx b/versioned_docs/version-3.13/helm-charts/configure-custom-values-scalardb-cluster.mdx index c431aae1..f4d29e79 100644 --- a/versioned_docs/version-3.13/helm-charts/configure-custom-values-scalardb-cluster.mdx +++ b/versioned_docs/version-3.13/helm-charts/configure-custom-values-scalardb-cluster.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Configure a custom values file for ScalarDB Cluster diff --git a/versioned_docs/version-3.13/helm-charts/configure-custom-values-scalardb-graphql.mdx b/versioned_docs/version-3.13/helm-charts/configure-custom-values-scalardb-graphql.mdx index 34b4f26a..9bab7a7f 100644 --- a/versioned_docs/version-3.13/helm-charts/configure-custom-values-scalardb-graphql.mdx +++ b/versioned_docs/version-3.13/helm-charts/configure-custom-values-scalardb-graphql.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # [Deprecated] Configure a custom values file for ScalarDB GraphQL diff --git a/versioned_docs/version-3.13/helm-charts/configure-custom-values-scalardb.mdx b/versioned_docs/version-3.13/helm-charts/configure-custom-values-scalardb.mdx index 36ab527a..86346ba7 100644 --- a/versioned_docs/version-3.13/helm-charts/configure-custom-values-scalardb.mdx +++ b/versioned_docs/version-3.13/helm-charts/configure-custom-values-scalardb.mdx @@ -3,6 +3,7 @@ tags: - Enterprise Standard - Enterprise Premium - Deprecated +displayed_sidebar: docsEnglish --- # [Deprecated] Configure a custom values file for ScalarDB Server diff --git a/versioned_docs/version-3.13/helm-charts/configure-custom-values-scalardl-auditor.mdx b/versioned_docs/version-3.13/helm-charts/configure-custom-values-scalardl-auditor.mdx index 86b77c2c..33aadc24 100644 --- a/versioned_docs/version-3.13/helm-charts/configure-custom-values-scalardl-auditor.mdx +++ b/versioned_docs/version-3.13/helm-charts/configure-custom-values-scalardl-auditor.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # Configure a custom values file for ScalarDL Auditor diff --git a/versioned_docs/version-3.13/helm-charts/configure-custom-values-scalardl-ledger.mdx b/versioned_docs/version-3.13/helm-charts/configure-custom-values-scalardl-ledger.mdx index bf328028..9a44d6a9 100644 --- a/versioned_docs/version-3.13/helm-charts/configure-custom-values-scalardl-ledger.mdx +++ b/versioned_docs/version-3.13/helm-charts/configure-custom-values-scalardl-ledger.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # Configure a custom values file for ScalarDL Ledger diff --git a/versioned_docs/version-3.13/helm-charts/configure-custom-values-scalardl-schema-loader.mdx b/versioned_docs/version-3.13/helm-charts/configure-custom-values-scalardl-schema-loader.mdx index f3b6d5dd..6340097a 100644 --- a/versioned_docs/version-3.13/helm-charts/configure-custom-values-scalardl-schema-loader.mdx +++ b/versioned_docs/version-3.13/helm-charts/configure-custom-values-scalardl-schema-loader.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # Configure a custom values file for ScalarDL Schema Loader diff --git a/versioned_docs/version-3.13/helm-charts/getting-started-logging.mdx b/versioned_docs/version-3.13/helm-charts/getting-started-logging.mdx index ab82c393..a2bb1b00 100644 --- a/versioned_docs/version-3.13/helm-charts/getting-started-logging.mdx +++ b/versioned_docs/version-3.13/helm-charts/getting-started-logging.mdx @@ -1,6 +1,7 @@ --- tags: - Community +displayed_sidebar: docsEnglish --- # Getting Started with Helm Charts (Logging using Loki Stack) diff --git a/versioned_docs/version-3.13/helm-charts/getting-started-monitoring.mdx b/versioned_docs/version-3.13/helm-charts/getting-started-monitoring.mdx index c28a9a40..d42f8ed0 100644 --- a/versioned_docs/version-3.13/helm-charts/getting-started-monitoring.mdx +++ b/versioned_docs/version-3.13/helm-charts/getting-started-monitoring.mdx @@ -1,6 +1,7 @@ --- tags: - Community +displayed_sidebar: docsEnglish --- # Getting Started with Helm Charts (Monitoring using Prometheus Operator) diff --git a/versioned_docs/version-3.13/helm-charts/getting-started-scalar-helm-charts.mdx b/versioned_docs/version-3.13/helm-charts/getting-started-scalar-helm-charts.mdx index dcc94494..d51d95db 100644 --- a/versioned_docs/version-3.13/helm-charts/getting-started-scalar-helm-charts.mdx +++ b/versioned_docs/version-3.13/helm-charts/getting-started-scalar-helm-charts.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Getting Started with Scalar Helm Charts diff --git a/versioned_docs/version-3.13/helm-charts/getting-started-scalar-manager.mdx b/versioned_docs/version-3.13/helm-charts/getting-started-scalar-manager.mdx index 9ee9f941..8344dec3 100644 --- a/versioned_docs/version-3.13/helm-charts/getting-started-scalar-manager.mdx +++ b/versioned_docs/version-3.13/helm-charts/getting-started-scalar-manager.mdx @@ -1,6 +1,7 @@ --- tags: - Enterprise Option +displayed_sidebar: docsEnglish --- # Deploy Scalar Manager diff --git a/versioned_docs/version-3.13/helm-charts/getting-started-scalardb-analytics-postgresql.mdx b/versioned_docs/version-3.13/helm-charts/getting-started-scalardb-analytics-postgresql.mdx index 36fa1a0a..1807de98 100644 --- a/versioned_docs/version-3.13/helm-charts/getting-started-scalardb-analytics-postgresql.mdx +++ b/versioned_docs/version-3.13/helm-charts/getting-started-scalardb-analytics-postgresql.mdx @@ -1,6 +1,7 @@ --- tags: - Community +displayed_sidebar: docsEnglish --- # Getting Started with Helm Charts (ScalarDB Analytics with PostgreSQL) diff --git a/versioned_docs/version-3.13/helm-charts/getting-started-scalardb-cluster-tls-cert-manager.mdx b/versioned_docs/version-3.13/helm-charts/getting-started-scalardb-cluster-tls-cert-manager.mdx index cf92badb..508bed4a 100644 --- a/versioned_docs/version-3.13/helm-charts/getting-started-scalardb-cluster-tls-cert-manager.mdx +++ b/versioned_docs/version-3.13/helm-charts/getting-started-scalardb-cluster-tls-cert-manager.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Getting Started with Helm Charts (ScalarDB Cluster with TLS by Using cert-manager) diff --git a/versioned_docs/version-3.13/helm-charts/getting-started-scalardb-cluster-tls.mdx b/versioned_docs/version-3.13/helm-charts/getting-started-scalardb-cluster-tls.mdx index 0462ab9e..0383321c 100644 --- a/versioned_docs/version-3.13/helm-charts/getting-started-scalardb-cluster-tls.mdx +++ b/versioned_docs/version-3.13/helm-charts/getting-started-scalardb-cluster-tls.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Getting Started with Helm Charts (ScalarDB Cluster with TLS) diff --git a/versioned_docs/version-3.13/helm-charts/getting-started-scalardb.mdx b/versioned_docs/version-3.13/helm-charts/getting-started-scalardb.mdx index d1a92c58..858c9f41 100644 --- a/versioned_docs/version-3.13/helm-charts/getting-started-scalardb.mdx +++ b/versioned_docs/version-3.13/helm-charts/getting-started-scalardb.mdx @@ -3,6 +3,7 @@ tags: - Enterprise Standard - Enterprise Premium - Deprecated +displayed_sidebar: docsEnglish --- # [Deprecated] Getting Started with Helm Charts (ScalarDB Server) diff --git a/versioned_docs/version-3.13/helm-charts/getting-started-scalardl-auditor-tls-cert-manager.mdx b/versioned_docs/version-3.13/helm-charts/getting-started-scalardl-auditor-tls-cert-manager.mdx index f2718d5d..75e411bf 100644 --- a/versioned_docs/version-3.13/helm-charts/getting-started-scalardl-auditor-tls-cert-manager.mdx +++ b/versioned_docs/version-3.13/helm-charts/getting-started-scalardl-auditor-tls-cert-manager.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # Getting Started with Helm Charts (ScalarDL Ledger and Auditor with TLS by Using cert-manager / Auditor Mode) diff --git a/versioned_docs/version-3.13/helm-charts/getting-started-scalardl-auditor-tls.mdx b/versioned_docs/version-3.13/helm-charts/getting-started-scalardl-auditor-tls.mdx index 8abaa2d9..776dca75 100644 --- a/versioned_docs/version-3.13/helm-charts/getting-started-scalardl-auditor-tls.mdx +++ b/versioned_docs/version-3.13/helm-charts/getting-started-scalardl-auditor-tls.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # Getting Started with Helm Charts (ScalarDL Ledger and Auditor with TLS / Auditor Mode) diff --git a/versioned_docs/version-3.13/helm-charts/getting-started-scalardl-auditor.mdx b/versioned_docs/version-3.13/helm-charts/getting-started-scalardl-auditor.mdx index f11f0b23..94568dbc 100644 --- a/versioned_docs/version-3.13/helm-charts/getting-started-scalardl-auditor.mdx +++ b/versioned_docs/version-3.13/helm-charts/getting-started-scalardl-auditor.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # Getting Started with Helm Charts (ScalarDL Ledger and Auditor / Auditor mode) diff --git a/versioned_docs/version-3.13/helm-charts/getting-started-scalardl-ledger.mdx b/versioned_docs/version-3.13/helm-charts/getting-started-scalardl-ledger.mdx index cce92edb..44d0fc80 100644 --- a/versioned_docs/version-3.13/helm-charts/getting-started-scalardl-ledger.mdx +++ b/versioned_docs/version-3.13/helm-charts/getting-started-scalardl-ledger.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # Getting Started with Helm Charts (ScalarDL Ledger / Ledger only) diff --git a/versioned_docs/version-3.13/helm-charts/how-to-deploy-scalar-admin-for-kubernetes.mdx b/versioned_docs/version-3.13/helm-charts/how-to-deploy-scalar-admin-for-kubernetes.mdx index cdf5f165..931a3b46 100644 --- a/versioned_docs/version-3.13/helm-charts/how-to-deploy-scalar-admin-for-kubernetes.mdx +++ b/versioned_docs/version-3.13/helm-charts/how-to-deploy-scalar-admin-for-kubernetes.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # How to deploy Scalar Admin for Kubernetes diff --git a/versioned_docs/version-3.13/helm-charts/how-to-deploy-scalar-products.mdx b/versioned_docs/version-3.13/helm-charts/how-to-deploy-scalar-products.mdx index 82874307..a9489c1b 100644 --- a/versioned_docs/version-3.13/helm-charts/how-to-deploy-scalar-products.mdx +++ b/versioned_docs/version-3.13/helm-charts/how-to-deploy-scalar-products.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Deploy Scalar products using Scalar Helm Charts diff --git a/versioned_docs/version-3.13/helm-charts/how-to-deploy-scalardb-analytics-postgresql.mdx b/versioned_docs/version-3.13/helm-charts/how-to-deploy-scalardb-analytics-postgresql.mdx index 90db2ce6..fb190064 100644 --- a/versioned_docs/version-3.13/helm-charts/how-to-deploy-scalardb-analytics-postgresql.mdx +++ b/versioned_docs/version-3.13/helm-charts/how-to-deploy-scalardb-analytics-postgresql.mdx @@ -1,6 +1,7 @@ --- tags: - Community +displayed_sidebar: docsEnglish --- # How to deploy ScalarDB Analytics with PostgreSQL diff --git a/versioned_docs/version-3.13/helm-charts/how-to-deploy-scalardb-cluster.mdx b/versioned_docs/version-3.13/helm-charts/how-to-deploy-scalardb-cluster.mdx index 33f7bd25..1dcc911e 100644 --- a/versioned_docs/version-3.13/helm-charts/how-to-deploy-scalardb-cluster.mdx +++ b/versioned_docs/version-3.13/helm-charts/how-to-deploy-scalardb-cluster.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # How to deploy ScalarDB Cluster diff --git a/versioned_docs/version-3.13/helm-charts/how-to-deploy-scalardb-graphql.mdx b/versioned_docs/version-3.13/helm-charts/how-to-deploy-scalardb-graphql.mdx index 6f535e4a..8bb557e6 100644 --- a/versioned_docs/version-3.13/helm-charts/how-to-deploy-scalardb-graphql.mdx +++ b/versioned_docs/version-3.13/helm-charts/how-to-deploy-scalardb-graphql.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # [Deprecated] How to deploy ScalarDB GraphQL diff --git a/versioned_docs/version-3.13/helm-charts/how-to-deploy-scalardb.mdx b/versioned_docs/version-3.13/helm-charts/how-to-deploy-scalardb.mdx index abdc593b..5acd3200 100644 --- a/versioned_docs/version-3.13/helm-charts/how-to-deploy-scalardb.mdx +++ b/versioned_docs/version-3.13/helm-charts/how-to-deploy-scalardb.mdx @@ -3,6 +3,7 @@ tags: - Enterprise Standard - Enterprise Premium - Deprecated +displayed_sidebar: docsEnglish --- # [Deprecated] How to deploy ScalarDB Server diff --git a/versioned_docs/version-3.13/helm-charts/how-to-deploy-scalardl-auditor.mdx b/versioned_docs/version-3.13/helm-charts/how-to-deploy-scalardl-auditor.mdx index b2a6d54e..15ab7f3a 100644 --- a/versioned_docs/version-3.13/helm-charts/how-to-deploy-scalardl-auditor.mdx +++ b/versioned_docs/version-3.13/helm-charts/how-to-deploy-scalardl-auditor.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # How to deploy ScalarDL Auditor diff --git a/versioned_docs/version-3.13/helm-charts/how-to-deploy-scalardl-ledger.mdx b/versioned_docs/version-3.13/helm-charts/how-to-deploy-scalardl-ledger.mdx index d2169ff0..2e9b11d2 100644 --- a/versioned_docs/version-3.13/helm-charts/how-to-deploy-scalardl-ledger.mdx +++ b/versioned_docs/version-3.13/helm-charts/how-to-deploy-scalardl-ledger.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # How to deploy ScalarDL Ledger diff --git a/versioned_docs/version-3.13/helm-charts/mount-files-or-volumes-on-scalar-pods.mdx b/versioned_docs/version-3.13/helm-charts/mount-files-or-volumes-on-scalar-pods.mdx index 026d1466..a8adcce6 100644 --- a/versioned_docs/version-3.13/helm-charts/mount-files-or-volumes-on-scalar-pods.mdx +++ b/versioned_docs/version-3.13/helm-charts/mount-files-or-volumes-on-scalar-pods.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Mount any files or volumes on Scalar product pods diff --git a/versioned_docs/version-3.13/helm-charts/use-secret-for-credentials.mdx b/versioned_docs/version-3.13/helm-charts/use-secret-for-credentials.mdx index 2f5eb8ed..12499460 100644 --- a/versioned_docs/version-3.13/helm-charts/use-secret-for-credentials.mdx +++ b/versioned_docs/version-3.13/helm-charts/use-secret-for-credentials.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # How to use Secret resources to pass credentials as environment variables into the properties file diff --git a/versioned_docs/version-3.13/scalar-kubernetes/AccessScalarProducts.mdx b/versioned_docs/version-3.13/scalar-kubernetes/AccessScalarProducts.mdx index 40fe8f4e..543dff2e 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/AccessScalarProducts.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/AccessScalarProducts.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Make ScalarDB or ScalarDL deployed in a Kubernetes cluster environment available from applications diff --git a/versioned_docs/version-3.13/scalar-kubernetes/AwsMarketplaceGuide.mdx b/versioned_docs/version-3.13/scalar-kubernetes/AwsMarketplaceGuide.mdx index 8594573c..2b22586b 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/AwsMarketplaceGuide.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/AwsMarketplaceGuide.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # How to install Scalar products through AWS Marketplace diff --git a/versioned_docs/version-3.13/scalar-kubernetes/AzureMarketplaceGuide.mdx b/versioned_docs/version-3.13/scalar-kubernetes/AzureMarketplaceGuide.mdx index 6dc1b2bd..da3612a1 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/AzureMarketplaceGuide.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/AzureMarketplaceGuide.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # How to install Scalar products through Azure Marketplace diff --git a/versioned_docs/version-3.13/scalar-kubernetes/BackupNoSQL.mdx b/versioned_docs/version-3.13/scalar-kubernetes/BackupNoSQL.mdx index 5cd59404..6882c8b1 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/BackupNoSQL.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/BackupNoSQL.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Back up a NoSQL database in a Kubernetes environment diff --git a/versioned_docs/version-3.13/scalar-kubernetes/BackupRDB.mdx b/versioned_docs/version-3.13/scalar-kubernetes/BackupRDB.mdx index bbe64895..804d6360 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/BackupRDB.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/BackupRDB.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Back up an RDB in a Kubernetes environment diff --git a/versioned_docs/version-3.13/scalar-kubernetes/BackupRestoreGuide.mdx b/versioned_docs/version-3.13/scalar-kubernetes/BackupRestoreGuide.mdx index 1dc99991..8faabbd4 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/BackupRestoreGuide.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/BackupRestoreGuide.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Back up and restore ScalarDB or ScalarDL data in a Kubernetes environment diff --git a/versioned_docs/version-3.13/scalar-kubernetes/CreateAKSClusterForScalarDB.mdx b/versioned_docs/version-3.13/scalar-kubernetes/CreateAKSClusterForScalarDB.mdx index 5d32472c..2ea91d54 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/CreateAKSClusterForScalarDB.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/CreateAKSClusterForScalarDB.mdx @@ -3,6 +3,7 @@ tags: - Enterprise Standard - Enterprise Premium - Deprecated +displayed_sidebar: docsEnglish --- # Guidelines for creating an AKS cluster for ScalarDB Server diff --git a/versioned_docs/version-3.13/scalar-kubernetes/CreateAKSClusterForScalarDL.mdx b/versioned_docs/version-3.13/scalar-kubernetes/CreateAKSClusterForScalarDL.mdx index 9f2c35ff..c22cc225 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/CreateAKSClusterForScalarDL.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/CreateAKSClusterForScalarDL.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # Guidelines for creating an AKS cluster for ScalarDL Ledger diff --git a/versioned_docs/version-3.13/scalar-kubernetes/CreateAKSClusterForScalarDLAuditor.mdx b/versioned_docs/version-3.13/scalar-kubernetes/CreateAKSClusterForScalarDLAuditor.mdx index 64b8b82b..ce62bd0f 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/CreateAKSClusterForScalarDLAuditor.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/CreateAKSClusterForScalarDLAuditor.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # Guidelines for creating an AKS cluster for ScalarDL Ledger and ScalarDL Auditor diff --git a/versioned_docs/version-3.13/scalar-kubernetes/CreateAKSClusterForScalarProducts.mdx b/versioned_docs/version-3.13/scalar-kubernetes/CreateAKSClusterForScalarProducts.mdx index 4a540ccb..0ecd0034 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/CreateAKSClusterForScalarProducts.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/CreateAKSClusterForScalarProducts.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Guidelines for creating an AKS cluster for Scalar products diff --git a/versioned_docs/version-3.13/scalar-kubernetes/CreateBastionServer.mdx b/versioned_docs/version-3.13/scalar-kubernetes/CreateBastionServer.mdx index 77300b14..331c147f 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/CreateBastionServer.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/CreateBastionServer.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Create a bastion server diff --git a/versioned_docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarDB.mdx b/versioned_docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarDB.mdx index 8315ed48..56d8c918 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarDB.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarDB.mdx @@ -3,6 +3,7 @@ tags: - Enterprise Standard - Enterprise Premium - Deprecated +displayed_sidebar: docsEnglish --- # (Deprecated) Guidelines for creating an EKS cluster for ScalarDB Server diff --git a/versioned_docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarDBCluster.mdx b/versioned_docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarDBCluster.mdx index 7ad4a764..73ffe005 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarDBCluster.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarDBCluster.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Guidelines for creating an EKS cluster for ScalarDB Cluster diff --git a/versioned_docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarDL.mdx b/versioned_docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarDL.mdx index efbab289..fa83233d 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarDL.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarDL.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # Guidelines for creating an EKS cluster for ScalarDL Ledger diff --git a/versioned_docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarDLAuditor.mdx b/versioned_docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarDLAuditor.mdx index a1eef36c..f1752a04 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarDLAuditor.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarDLAuditor.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # Guidelines for creating an EKS cluster for ScalarDL Ledger and ScalarDL Auditor diff --git a/versioned_docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarProducts.mdx b/versioned_docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarProducts.mdx index c179e79a..278ee172 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarProducts.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/CreateEKSClusterForScalarProducts.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Guidelines for creating an Amazon EKS cluster for Scalar products diff --git a/versioned_docs/version-3.13/scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx b/versioned_docs/version-3.13/scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx index fad111f5..76ad97a1 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/HowToCreateKeyAndCertificateFiles.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # How to Create Private Key and Certificate Files for TLS Connections in Scalar Products diff --git a/versioned_docs/version-3.13/scalar-kubernetes/HowToGetContainerImages.mdx b/versioned_docs/version-3.13/scalar-kubernetes/HowToGetContainerImages.mdx index b3e3bb26..10b77dbc 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/HowToGetContainerImages.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/HowToGetContainerImages.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # How to get the container images of Scalar products diff --git a/versioned_docs/version-3.13/scalar-kubernetes/HowToScaleScalarDB.mdx b/versioned_docs/version-3.13/scalar-kubernetes/HowToScaleScalarDB.mdx index 5090035f..76d6e2a5 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/HowToScaleScalarDB.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/HowToScaleScalarDB.mdx @@ -3,6 +3,7 @@ tags: - Community - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # How to Scale ScalarDB diff --git a/versioned_docs/version-3.13/scalar-kubernetes/HowToScaleScalarDL.mdx b/versioned_docs/version-3.13/scalar-kubernetes/HowToScaleScalarDL.mdx index c9818134..d1adfbe3 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/HowToScaleScalarDL.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/HowToScaleScalarDL.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # How to Scale ScalarDL diff --git a/versioned_docs/version-3.13/scalar-kubernetes/HowToUpgradeScalarDB.mdx b/versioned_docs/version-3.13/scalar-kubernetes/HowToUpgradeScalarDB.mdx index 83701249..98ce9714 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/HowToUpgradeScalarDB.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/HowToUpgradeScalarDB.mdx @@ -3,6 +3,7 @@ tags: - Community - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # How to Upgrade ScalarDB diff --git a/versioned_docs/version-3.13/scalar-kubernetes/HowToUpgradeScalarDL.mdx b/versioned_docs/version-3.13/scalar-kubernetes/HowToUpgradeScalarDL.mdx index a4e2f6e0..1d98c52e 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/HowToUpgradeScalarDL.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/HowToUpgradeScalarDL.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # How to Upgrade ScalarDL diff --git a/versioned_docs/version-3.13/scalar-kubernetes/HowToUseContainerImages.mdx b/versioned_docs/version-3.13/scalar-kubernetes/HowToUseContainerImages.mdx index aaae4db3..95b93618 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/HowToUseContainerImages.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/HowToUseContainerImages.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # How to use the container images diff --git a/versioned_docs/version-3.13/scalar-kubernetes/K8sLogCollectionGuide.mdx b/versioned_docs/version-3.13/scalar-kubernetes/K8sLogCollectionGuide.mdx index c4d70e43..f6013a54 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/K8sLogCollectionGuide.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/K8sLogCollectionGuide.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Collecting logs from Scalar products on a Kubernetes cluster diff --git a/versioned_docs/version-3.13/scalar-kubernetes/K8sMonitorGuide.mdx b/versioned_docs/version-3.13/scalar-kubernetes/K8sMonitorGuide.mdx index 801ee857..66cb123b 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/K8sMonitorGuide.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/K8sMonitorGuide.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Monitoring Scalar products on a Kubernetes cluster diff --git a/versioned_docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDBClusterOnEKS.mdx b/versioned_docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDBClusterOnEKS.mdx index ac792e4d..bee02994 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDBClusterOnEKS.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDBClusterOnEKS.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Deploy ScalarDB Cluster on Amazon Elastic Kubernetes Service (EKS) diff --git a/versioned_docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDBServerOnAKS.mdx b/versioned_docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDBServerOnAKS.mdx index b897e7ec..5a9e1d90 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDBServerOnAKS.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDBServerOnAKS.mdx @@ -3,6 +3,7 @@ tags: - Enterprise Standard - Enterprise Premium - Deprecated +displayed_sidebar: docsEnglish --- # [Deprecated] Deploy ScalarDB Server on Azure Kubernetes Service (AKS) diff --git a/versioned_docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDBServerOnEKS.mdx b/versioned_docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDBServerOnEKS.mdx index 15f03e88..e2781658 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDBServerOnEKS.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDBServerOnEKS.mdx @@ -3,6 +3,7 @@ tags: - Enterprise Standard - Enterprise Premium - Deprecated +displayed_sidebar: docsEnglish --- # Deploy ScalarDB Server on Amazon Elastic Kubernetes Service (EKS) diff --git a/versioned_docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDLAuditorOnAKS.mdx b/versioned_docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDLAuditorOnAKS.mdx index e73d0be5..6bae5bcd 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDLAuditorOnAKS.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDLAuditorOnAKS.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # Deploy ScalarDL Ledger and ScalarDL Auditor on Azure Kubernetes Service (AKS) diff --git a/versioned_docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDLAuditorOnEKS.mdx b/versioned_docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDLAuditorOnEKS.mdx index 80a900f9..64c6101c 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDLAuditorOnEKS.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDLAuditorOnEKS.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # Deploy ScalarDL Ledger and ScalarDL Auditor on Amazon Elastic Kubernetes Service (EKS) diff --git a/versioned_docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDLOnAKS.mdx b/versioned_docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDLOnAKS.mdx index 6ab18d73..554c14ea 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDLOnAKS.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDLOnAKS.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # Deploy ScalarDL Ledger on Azure Kubernetes Service (AKS) diff --git a/versioned_docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDLOnEKS.mdx b/versioned_docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDLOnEKS.mdx index 4a3cabd9..5b4ecadf 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDLOnEKS.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/ManualDeploymentGuideScalarDLOnEKS.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # Deploy ScalarDL Ledger on Amazon Elastic Kubernetes Service (EKS) diff --git a/versioned_docs/version-3.13/scalar-kubernetes/NetworkPeeringForScalarDLAuditor.mdx b/versioned_docs/version-3.13/scalar-kubernetes/NetworkPeeringForScalarDLAuditor.mdx index 13c5ef88..fc86fbe9 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/NetworkPeeringForScalarDLAuditor.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/NetworkPeeringForScalarDLAuditor.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # Configure Network Peering for ScalarDL Auditor Mode diff --git a/versioned_docs/version-3.13/scalar-kubernetes/ProductionChecklistForScalarDBCluster.mdx b/versioned_docs/version-3.13/scalar-kubernetes/ProductionChecklistForScalarDBCluster.mdx index 6a872a74..2a51f739 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/ProductionChecklistForScalarDBCluster.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/ProductionChecklistForScalarDBCluster.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Production checklist for ScalarDB Cluster diff --git a/versioned_docs/version-3.13/scalar-kubernetes/ProductionChecklistForScalarDLAuditor.mdx b/versioned_docs/version-3.13/scalar-kubernetes/ProductionChecklistForScalarDLAuditor.mdx index 3adac860..8ca30ca6 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/ProductionChecklistForScalarDLAuditor.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/ProductionChecklistForScalarDLAuditor.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # Production checklist for ScalarDL Auditor diff --git a/versioned_docs/version-3.13/scalar-kubernetes/ProductionChecklistForScalarDLLedger.mdx b/versioned_docs/version-3.13/scalar-kubernetes/ProductionChecklistForScalarDLLedger.mdx index aecf0252..c83e9cf8 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/ProductionChecklistForScalarDLLedger.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/ProductionChecklistForScalarDLLedger.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # Production checklist for ScalarDL Ledger diff --git a/versioned_docs/version-3.13/scalar-kubernetes/ProductionChecklistForScalarProducts.mdx b/versioned_docs/version-3.13/scalar-kubernetes/ProductionChecklistForScalarProducts.mdx index a1473aae..0779599a 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/ProductionChecklistForScalarProducts.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/ProductionChecklistForScalarProducts.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Production checklist for Scalar products diff --git a/versioned_docs/version-3.13/scalar-kubernetes/RegularCheck.mdx b/versioned_docs/version-3.13/scalar-kubernetes/RegularCheck.mdx index 0ded26ac..497546ec 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/RegularCheck.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/RegularCheck.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Components to Regularly Check When Running in a Kubernetes Environment diff --git a/versioned_docs/version-3.13/scalar-kubernetes/RestoreDatabase.mdx b/versioned_docs/version-3.13/scalar-kubernetes/RestoreDatabase.mdx index 6f245a36..61a615e3 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/RestoreDatabase.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/RestoreDatabase.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Restore databases in a Kubernetes environment diff --git a/versioned_docs/version-3.13/scalar-kubernetes/SetupDatabase.mdx b/versioned_docs/version-3.13/scalar-kubernetes/SetupDatabase.mdx index 5fe79255..3ffe0967 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/SetupDatabase.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/SetupDatabase.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Set up a database for ScalarDB/ScalarDL deployment diff --git a/versioned_docs/version-3.13/scalar-kubernetes/SetupDatabaseForAWS.mdx b/versioned_docs/version-3.13/scalar-kubernetes/SetupDatabaseForAWS.mdx index 266fe096..78c817fd 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/SetupDatabaseForAWS.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/SetupDatabaseForAWS.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Set up a database for ScalarDB/ScalarDL deployment on AWS diff --git a/versioned_docs/version-3.13/scalar-kubernetes/SetupDatabaseForAzure.mdx b/versioned_docs/version-3.13/scalar-kubernetes/SetupDatabaseForAzure.mdx index 7b2c34b6..01ee90ad 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/SetupDatabaseForAzure.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/SetupDatabaseForAzure.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Set up a database for ScalarDB/ScalarDL deployment on Azure diff --git a/versioned_docs/version-3.13/scalar-kubernetes/alerts/Envoy.mdx b/versioned_docs/version-3.13/scalar-kubernetes/alerts/Envoy.mdx index dcc3beb4..95183274 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/alerts/Envoy.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/alerts/Envoy.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Envoy Alerts diff --git a/versioned_docs/version-3.13/scalar-kubernetes/alerts/Ledger.mdx b/versioned_docs/version-3.13/scalar-kubernetes/alerts/Ledger.mdx index 2a70882d..72d14971 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/alerts/Ledger.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/alerts/Ledger.mdx @@ -1,4 +1,5 @@ --- +displayed_sidebar: docsEnglish --- # Ledger Alerts diff --git a/versioned_docs/version-3.13/scalar-kubernetes/alerts/README.mdx b/versioned_docs/version-3.13/scalar-kubernetes/alerts/README.mdx index d97a2b13..6048b065 100644 --- a/versioned_docs/version-3.13/scalar-kubernetes/alerts/README.mdx +++ b/versioned_docs/version-3.13/scalar-kubernetes/alerts/README.mdx @@ -2,6 +2,7 @@ tags: - Enterprise Standard - Enterprise Premium +displayed_sidebar: docsEnglish --- # Scalar Alerts diff --git a/versioned_docs/version-3.13/scalar-manager/overview.mdx b/versioned_docs/version-3.13/scalar-manager/overview.mdx index 8db0a86b..04ee30f7 100644 --- a/versioned_docs/version-3.13/scalar-manager/overview.mdx +++ b/versioned_docs/version-3.13/scalar-manager/overview.mdx @@ -1,6 +1,7 @@ --- tags: - Enterprise Option +displayed_sidebar: docsEnglish --- # Scalar Manager Overview