誰もが知識や情報を共有するための素晴らしい動画や画像を作成できるようにするという使命を果たすために、人工知能などの新しい技術進歩を取り入れています。しかし、人工知能技術の利用に関して、多くの質問、懸念、誤解が存在します。この文書は私たちのアプローチを示し、私たちの立場を明確にします。
本書の範囲
本書は、顧客対応製品およびサービスにおける人工知能技術の使用を管理する原則をカバーしています。これは、TechSmith の製品およびサービスにおけるすべての AI 機能に適用されます。
トレーニングのための顧客データの使用
TechSmith は、あなたの同意なしにデータを使用して人工知能モデルをトレーニングしません。また、TechSmithが配布、利用、またはライセンス供与する人工知能モデルは、あなたの同意なしにデータを使用しません。TechSmith のデータ使用に関する詳細については、TechSmithプライバシー通知をご覧ください。
トレーニングデータの開示
利用可能および可能な場合、TechSmith は、私たちの製品およびサービスで使用されるモデルをトレーニングするために使用されたデータのソース、またはデータ収集に使用されたプロセスを開示します。時折、TechSmithは、トレーニングに使用されたデータに関する透明性がないモデルを使用することがあります。TechSmith は、使用されたデータの機密性を考慮し、トレーニングに使用されたデータのソースを検討するための商業的に合理的な手段を用いています。
ベンダーの選定
TechSmithは私たちのパートナーがこれらのAI責任原則に従うことを期待します。TechSmithはパートナーの評価およびレビューを行い、私たちのAI責任原則に適合していることを確認します。セキュリティ、プライバシー、および倫理的データ収集実践を評価するためのプロセスを調整しています。評価にはデータ保持ポリシー、モデルトレーニングポリシー、および濫用報告メカニズムのレビューが含まれます。また、提供者の倫理原則を見直し、TechSmithの価値観および基準に即したものであることを確認します。
AIセキュリティ
TechSmithは、ユーザーを害するアプリケーション、ディープフェイクや虚偽情報を含む潜在的に危険なAI技術の安全な使用を優先しています。可能な場合には、ユーザーの保護を確保するために有害または不適切なコンテンツを検出し、緩和するための措置を実施します。
TechSmith製品を使用して生成的AIを利用中に有害なコンテンツを発見した場合は、ai@techsmith.comへ報告してください。
AI技術の開示
当社はAI技術の使用において透明性を確保しています。AI技術が基盤となるコア機能を持つ製品には明示的な開示を行います。また、オプションのAI機能がある製品については、その機能がAI技術を使用していることをユーザインターフェイスおよび利用規約で明確に示します。
ローカル vs クラウドの開示
当社はAI処理の場所について透明性を持っています。TechSmithは、AI技術がユーザーのデバイス上でローカルに実行されるか、またはデータがクラウドで処理されるかどうかをユーザーに通知します。この透明性により、ユーザーはデータとそのセキュリティに関して情報に基づいた意思決定を行うことができます。
生成的AIコンテンツの著作権
TechSmithは、生成的AIまたは人間によって作成されたかどうかにかかわらず、顧客が当社の製品およびサービスを使用して作成したデジタルコンテンツについて、所有権を主張しません。ただし、お客様のデジタルコンテンツを表示するために、コンテンツを共有するための制限付き権利が必要な場合があります。詳細については、利用規約または適用されるエンドユーザーライセンス契約(EULA)をご覧ください。
生成的AI機能を使用して作成されたコンテンツは、他のユーザーが作成したコンテンツと類似している場合があります。そのようなコンテンツに対する権利は、生成的AI機能の他のユーザーに対して適用されない場合があります。
提供者およびモデルの開示
TechSmithは使用されるAIモデルおよびサービス、ならびに各製品に使用される提供者を公開します。各製品のデータはこちらに記載されています。
お問い合わせ方法
TechSmithのAI技術の利用に関して懸念、質問、フィードバック、または苦情がある場合は、ai@techsmith.comまでご連絡ください。
TechSmithのAI責任原則の変更
本AIポリシーは変更される可能性があります。AI責任原則に重大な変更がある場合は、当社のトラストセンターにリンクされた更新版を掲載します。また、技術の進展に対応し、TechSmithの顧客と従業員を保護する方法を把握するために、AI責任原則を定期的にレビューすることをお勧めします。