Bioinformatique pour le WGS à faible couverture : Mise en œuvre de cn.mops et de pipelines

Le séquençage du génome entier à faible couverture (low-pass WGS) est attrayant pour le profilage du nombre de copies car il échange la profondeur pour l'étendue. Mais pour un architecte de pipeline bioinformatique, "CNV à faible couverture" n'est pas une méthode unique - c'est un empilement de décisions concernant binnage, correction de biais, segmentation/appel, et normalisation des livrables.

Cette ressource est écrite pour des projets RUO où vos objectifs sont généralement :

  • Signal de profondeur de lecture stable à faible couverture
  • Faux positifs contrôlés (especially "sous-segmentation")
  • Compatibilité des pipelines avec les outils internes existants (entrées/sorties, constructions de référence, reproductibilité)

Tout au long, cn.mops est utilisé comme exemple concret, mais la plupart des conseils sont indépendants de l'appel et s'appliquent de manière générale aux pipelines CNV en fonction de la profondeur de lecture.

Plan de pipeline (RUO) — ce que vous allez construire et ce que vous recevrez
Un pipeline CNV à faible fréquence robuste peut être mis en œuvre comme un plan déterministe : FASTQ → BAM/CRAM aligné → comptages regroupés → signal normalisé → segmentation/appels → livrables standardisésLa "définition de terminé" n'est pas simplement une liste de segments ; c'est un package reproductible : (1) un table des segments (BED/TSV) plus une table d'annotation génétique optionnelle, (2) un auditabilité Rapport de contrôle qualité (humainement lisible + lisible par machine), et (3) un exécuter le manifeste capture de la construction de référence, masques/listes noires appelables, paramètres de binning, versions des appelants et hachages de paramètres. Ce plan rend la ré-analyse interne et l'intégration des pipelines prévisibles, même lorsque la couverture est faible et la variance est élevée.

1. Pourquoi l'appel de CNV à faible fréquence est difficile (et comment les pipelines le corrigent)

1.1 Faible profondeur → haute variance : à quoi ressemble le bruit dans l'espace de profondeur de lecture

La CNV par profondeur de lecture repose sur une idée simple : si une région génomique a moins de lectures que prévu, cela peut indiquer une délétion ; si elle en a plus, cela peut indiquer une duplication. Le séquençage génomique à faible couverture remet en question la partie "prévue".

À faible couverture, votre signal est dominé par compter le bruit et variance d'échantillonnage:

  • Bacs clairsemésde nombreux bins se trouvent près de zéro lectures, ce qui gonfle la variance et déstabilise la segmentation.
  • Fréquence des valeurs aberrantesLes bins extrêmes bas/hauts deviennent suffisamment courants pour créer des points de rupture spuriques à moins que vous ne les filtriez explicitement.
  • Risque de queue dans la segmentationLes algorithmes peuvent "expliquer le bruit" en créant de nombreux petits segments (sous-segmentation), ce qui semble détaillé mais représente souvent un fardeau de faux positifs.

Prise opérationnelle : dans les régimes passe-bas, la segmentation est pas une étape finale—c'est un consommateur d'une piste stabilisée et corrigée des biais.

1.2 Sources de biais : GC, mappabilité, répétitions, effets de lot

Même avec un échantillonnage parfait, les effets systématiques dominent souvent le CNV passe-bas :

  • biais GCLa couverture dépend du contenu en GC (chimie de la bibliothèque, amplification, séquençage). Un biais résiduel en GC apparaît souvent sous forme de "vagues" dans l'ensemble du génome.
  • Cartographiabilitédes alignements ambigus dans des régions de faible complexité créent des comptages incohérents et un faux signal.
  • Répétitions/duplications segmentairesLes bins riches en répétitions ont une variance élevée et peuvent générer des points de rupture artefactuels.
  • Effets de lotDes changements dans la méthode de bibliothèque, le flowcell/les lanes, la longueur de lecture, la version de l'aligner ou la construction de référence peuvent modifier les profils de couverture.

Noise Sources Map (Library → Alignment → Binning → Segmentation)Figure 1. Carte des sources de bruit (Bibliothèque → Alignement → Regroupement → Segmentation).
Ce qu'il faut rechercher : Courbure guidée par le GC, bandes à faible cartographie, pics associés aux répétitions et décalages inter-échantillons compatibles avec le lot.
Où réparer : appliquer Correction GC, appliquer un masque de mappabilité, exclure les régions à problèmes connus via un liste noire/masque appelableet garder modélisation homogène par lots pour les appelants multi-échantillons (par exemple, cn.mops).
Comment utiliser : inspectez ces signaux avant segmentation—la plupart des "CNVs mystérieux" à faible profondeur sont évitables en amont.

1.3 Objectifs du pipeline : stabiliser le signal, contrôler les faux positifs, standardiser les livrables

Un pipeline CNV à faible fréquence robuste devrait être conçu autour de trois objectifs :

  1. Stabilisation du signal
    Rendre la couverture par bin comparable à travers le génome (correction GC, filtrage de la mappabilité, gestion des valeurs aberrantes).
  2. Contrôle des faux positifs
    Prévenir la sur-segmentation en choisissant des tailles de classes et des contraintes de segmentation qui reflètent une résolution réaliste.
  3. Livrables standardisés
    Assurez-vous que les équipes en aval peuvent relancer ou intégrer les résultats : les formats de fichier, les métadonnées de référence, les paramètres et le contrôle qualité doivent être explicites.

Note de contexte d'analyse (RUO) : le séquençage génomique à faible couverture est une option dans une boîte à outils RUO plus large. En fonction des contraintes du projet, les équipes peuvent également évaluer des alternatives telles que Séquençage de l'exome entier pour des questions contraignantes sur l'exome ou des approches ciblées comme Séquençage de région ciblée lorsque l'objectif est une interrogation ciblée plutôt qu'un profilage à l'échelle du génome.

2. Blocs de pipeline principaux (orientés vers l'implémentation)

2.1 Exigences d'entrée : FASTQ → BAM/CRAM aligné (quelles sont les QC obligatoires)

Entrées minimales

  • FASTQ à paires (recommandé) ou FASTQ simple.
  • Feuille d'échantillon/métadonnées (méthode de bibliothèque, longueur de lecture, plateforme, identifiants de voie/lot)
  • Construction de référence cible et les ressources de région appelable sur lesquelles vous vous standardisez.

Résultats d'alignement (base de compatibilité)

  • BAM ou CRAM plus d'index (BAI/CSI pour BAM ; CRAI pour CRAM)
  • Résumé de la QC d'alignement (par échantillon + regroupements par lot)

Contrôles qualité obligatoires (portes d'ingénierie, pas des "options agréables à avoir")

  • Lectures mappées / lectures utilisables: s'assurer que les bacs ne seront pas dominés par des zéros après le filtrage
  • Taux de duplicationLes doublons gonflent la variance sans ajouter d'informations à basse fréquence.
  • Taux de cartographieUne faible cartographie est souvent corrélée avec des artefacts liés aux répétitions et des segments spuriques.
  • Insérer la distribution des taillesune multimodalité inattendue peut être associée à un biais GC et à une couverture inégale
  • Adaptateur/ajustement de qualité: améliore la cohérence de la cartographie et réduit la dispersion au niveau des bacs

Si vous souhaitez des artefacts d'alignement en amont standardisés (BAM/CRAM + QC) pour des flux de travail RUO, Séquençage du génome entier CD Genomics et Séquençage de nouvelle génération les services peuvent être utilisés comme des intrants cohérents.

2.2 Stratégie de regroupement : compromis sur la taille des bins (résolution vs stabilité)

Le binning convertit les lectures alignées en un vecteur de comptage à travers le génome. La taille de votre bin définit :

  • l'événement le plus petit que vous pouvez détecter de manière fiable (résolution pratique)
  • la variance que la segmentation doit tolérer (stabilité)

Bin Size Tradeoff Chart (Resolution vs Stability)Figure 2. Graphique de compromis de taille de bin (Résolution vs Stabilité).
Cette figure illustre trois régimes de bacs pratiques et leurs objectifs respectifs : (i) bacs plus grands pour chromosomique/large événements (priorité à la stabilité), (ii) bacs de taille moyenne pour multi-mégabase événements (équilibrés), et (iii) bacs plus petits pour annotation focale (souvent réalisable uniquement comme) annotation des segments, pas de véritable résolution au niveau des gènes, à faible couverture).

Cadre décisionnel : choisir une taille de bin de départ (liste de contrôle pratique)
Valider la taille du bin avec mesurable propriétés plutôt que l'intuition :

  • Médiane des lectures par bin (post-filtre)éviter les régimes où de nombreux bacs sont proches de zéro
  • Dispersion au niveau des bacsLe CV/MAD normalisé de la piste devrait diminuer à mesure que le nombre de bins augmente.
  • Charge de segmenttrop de segments signifie généralement que les bacs sont trop petits ou normalisation sous-corrigée
  • Fraction appelableun masquage agressif peut réduire la couverture effective et obliger à utiliser des bacs plus grands

Taille de Bin Matrice Rapide (débutant, ajuster par projet)

Objectif Échelle d'événements typiques Qu'est-ce qui peut se briser ? Signal QC à surveiller
Chromosomique large ondulations / décalages de lot résidu GC, charge segmentaire
Multi-Mb sub-chromosomique sous-segmentation charge de segment, fraction remboursable
Annotation focale proche du gène bacs proches de zéro / comptes épars dispersion, fraction appelable

Comment utiliser cette matrice: choisissez un régime de bacs de départ, puis exécutez la boucle de réglage dans 3,2 et ajustez la taille des bins et les contraintes de segmentation jusqu'à ce que les portes QC se stabilisent.

Exigence de lien interne :
Pour une explication plus approfondie de limites de résolution des CNV au niveau des gènes vs chromosomiquelisez ce guide de résolution.

2.3 Normalisation : correction GC, filtrage de mappabilité, gestion des valeurs aberrantes

La normalisation est l'endroit où la plupart des pipelines passe-bas réussissent ou échouent.

Correction GC

  • Objectif : éliminer la dépendance de la couverture au GC sans surajuster.
  • Validation : tracer le signal normalisé par rapport au GC ; la tendance résiduelle doit être minimale et stable entre les lots.

Filtrage de mappabilité

  • Appliquer un masque appelable cohérent et rapporter la fraction appelable.
  • Les bins à faible cartographie sont une source répétable de faux positifs à travers les outils.

Gestion des valeurs aberrantes (axée sur l'opérateur)
Les valeurs aberrantes proviennent de répétitions, d'ambiguïtés de cartographie ou de particularités d'assemblage. Traitez-les comme des objets de première classe :

  • listes noires fixes (régions problématiques connues)
  • bacs d'outliers adaptatifs (bacs extrêmes à travers un lot)
  • lissage conservateur (uniquement s'il est validé ; un lissage excessif cache les points de rupture)

Stratégie de lot
Pour les méthodes à échantillons multiples, l'homogénéité des lots est une "exigence stricte", pas une préférence :

  • évitez de mélanger les méthodes de bibliothèque, les longueurs de lecture ou les constructions de référence dans un même lot de modélisation
  • si des lots doivent être combinés, combinez-les après normalisation avec une séparation claire des métadonnées

(Note non liée pour la liste des changements : La standardisation des paramètres de séquençage en amont à travers les projets réduit la variance de lot.)

2.4 Appel/segmentation : concept et résultats de cn.mops

cn.mops modélise les comptes de lecture en utilisant un mélange de composants de Poisson représentant des états de nombre de copies discrets, et il estime le bruit pour réduire les faux positifs. Il a tendance à bien se comporter lorsque :

  • tu as plusieurs échantillons techniquement comparables
  • l'hétérogénéité des lots est contrôlée (ou segmentée en groupes de modélisation homogènes)

Sorties que vous devez standardiser, quel que soit l'appelant.

  • table des segments (BED/TSV) avec des champs de reproductibilité (voir Section 4)
  • signal normalisé par bin (au moins pour le QC/traçabilité)
  • Graphiques de QC (distribution de couverture, résidu GC, charge de segment)

Référence : Klambauer et al., cn.MOPS (NAR 2012). DOI : https://doi.org/10.1093/nar/gks003

3. cn.mops Notes Pratiques (Ce qui préoccupe les Architectes)

3.1 Pourquoi cn.mops fonctionne bien pour plusieurs échantillons (idée de mélange de Poissons - niveau élevé)

Les architectes de pipeline se soucient généralement d'une seule question : le modèle réduit-il les faux positifs sans masquer le véritable signal ?

cn.mops est utile dans des contextes à échantillons multiples car il :

  • modèles de comptage par bin à travers les échantillons, séparant les motifs techniques cohérents des écarts spécifiques aux échantillons
  • fournit des résultats sensibles au bruit qui soutiennent un filtrage raisonné au-delà de "cela semble trop segmenté"

À faible profondeur, cela a de l'importance car une segmentation pure sur des pistes log2 bruyantes peut se transformer en un ensemble d'appels à forte charge.

3.2 Paramètres clés à ajuster (fenêtre/bin, segment minimum, conception de lot d'échantillons)

Considérez l'accord comme une boucle d'ingénierie, et non comme une décision ponctuelle.

Une boucle d'accord pratique (recommandée)

  1. Choisissez 2 à 3 candidats. régimes binaires aligné au Taille de bin Matrice Rapide (Section 2.2).
  2. Pour chaque régime, effectuez la normalisation + cn.mops et produisez le même rapport de contrôle qualité.
  3. Portail utilisant des métriques objectives :
    • dispersion au niveau des bacs
    • Proxy de résidu GC / ondulation
    • fraction appelable
    • distribution de la charge segmentaire
  4. Verrouillez les paramètres et versionnez-les avec un manifeste (Section 4.3).

Boutons qui comptent le plus

  • Taille de bin/fenêtre (stabilité vs résolution)
  • Longueur minimale de segment / nombre minimum de bacs par segment (levier principal contre la sur-segmentation)
  • Modélisation de la conception par lots (seulement mélanger des échantillons techniquement comparables)

Si votre architecture interne préfère le transfert plug-and-play (BAM/CRAM en → segments standardisés/QC sortants) tout en maintenant des sorties réexécutables, un seul, bien défini Services de bioinformatique La limite de flux de travail peut réduire les frictions d'intégration.

3.3 Métriques QC à rapporter (variance, uniformité de couverture, confiance des segments)

Un pipeline CNV passe-bas devrait émettre des QC qui soutiennent les décisions "accepter / relancer / mettre en quarantaine".

Métriques QC recommandées (par échantillon + résumés de lot)

  • lectures mappées / lectures utilisables (après filtrage)
  • taux de duplication (et si les doublons ont été marqués/enlevés)
  • fraction appelable (filtrage de masque noir/liste noire/valeurs aberrantes)
  • dispersion au niveau des bins (CV/MAD robuste sur le signal normalisé)
  • Résidu GC (correlation/pente du signal normalisé par rapport au GC)
  • proxy de ondulation (amplitude de tendance basse fréquence / autocorrélation)
  • charge de segment (distribution de compte + longueur)
  • vérifications de la validité des événements (par exemple, fraction du génome dans des états altérés ; des fractions extrêmes indiquent souvent un artefact)

Tableau des seuils de démarrage QC (spécifique à la plateforme ; utiliser des espaces réservés jusqu'à ce que l'assurance qualité du projet définisse les limites)
Note de départ : Les seuils dépendent de la méthode de la bibliothèque, de la longueur de lecture, de la construction de référence et de la stratégie de masquage.

porte QC Pourquoi c'est important pour le CNV passe-bas S'il échoue Réparation typique
Lectures mappées utilisables empêche les bacs proches de zéro de dominer comptes rares → segments instables augmenter le nombre de lectures ou augmenter la taille des bacs
Taux de duplication les doublons gonflent la variance faux points de rupture / piste bruyante réviser la préparation de la bibliothèque ; marquer/retirer les doublons ; ajuster le gating
Fraction appelable couverture efficace après les masques perte de signal ; grands bacs forcés affiner le masque/liste noire ; vérifier à nouveau les ressources de référence/mappabilité
Dispersion au niveau des bacs (CV/MAD robuste) indicateur direct de la stabilité du signal sur-segmentation augmenter la taille des bins ; renforcer le filtrage des valeurs aberrantes ; division par lots
Résidu GC (pente/corrélation) prédit des artefacts de ondulation gains/pertes larges fausses réexaminer la correction GC ; stratégie de normalisation par lot
Charge de segment (nombre / fraction du génome) proxy pour faux positifs ensemble d'appels bruyants augmenter la longueur minimale du segment ; ajuster l'appelant ; augmenter la taille du bin

QC Dashboard Mock (Coverage, GC bias, Segment count, Log2 ratio)Figure 3. Maquette du tableau de bord QC (Couverture, biais GC, nombre de segments, ratio Log2).
Ce tableau de bord QC s'aligne directement sur les étapes ci-dessus : couverture (distribution de profondeur et bacs d'outliers), biais GC (tendance résiduelle et ondulation), fardeau de segment (nombre/forme de la distribution), et rapport log2 à l'échelle du génome (segment mis en évidence pour un examen aléatoire). Utilisez-le comme un aperçu de contrôle qualité avant la publication : si le résidu GC ou la charge de segment est instable, ajustez le régime de bin et les contraintes de segmentation avant d'exporter les livrables.

4. Livrables et compatibilité (Pour réanalyse interne)

4.1 Sorties standard : segments (BED/TSV), tableau au niveau des gènes, rapport de contrôle qualité

Segments (analyse + visualisation)

  • TSV/CSV pour l'analyse, BED pour les navigateurs
  • Colonnes recommandées :
    • identifiant_échantillon
    • chr, début, fin
    • num_bins, longueur_bp
    • log2_ratio (ou mesure normalisée équivalente)
    • appel_discret (perte/neutre/gain)
    • métrique_de_confiance_ou_de_bruit (si disponible)
    • version_du_pipeline et hachage_des_paramètres

Tableau récapitulatif au niveau des gènes (annotation, pas de "vraie résolution des gènes")

  • dérivé en croisant des segments avec des annotations génétiques
  • doit l'indiquer explicitement. annotation du signal au niveau du segment
  • inclure la fraction de chevauchement et les identifiants de segment pour la traçabilité

rapport de contrôle qualité

  • lisible par l'homme (PDF/HTML) + lisible par machine (JSON)
  • inclure des indicateurs de passage/avertissement/échec par métrique et les seuils de filtrage utilisés

4.2 Livrables bruts requis : BAM/CRAM aligné + index, métadonnées de référence

Minimum requis pour une réanalyse interne déterministe :

  • BAM/CRAM + index
  • identifiant de construction de référence + sommes de contrôle fasta lorsque c'est possible
  • nom/version de l'aligner + commande/configuration
  • version de masque appelable / liste noire
  • paramètres de binning (taille des bins, définition des limites des bins, filtres)
  • version cn.mops + paramètres clés
  • table des segments + rapport de QC

Pour une liste de contrôle d'emballage des entrées et des métadonnées pour soutenir la réanalyse déterministe RUO, voir le Directives de Soumission d'Échantillons.

4.3 Reproductibilité : gestion des versions (version de référence, versions des appelants, paramètres)

Le CNV passe-bas est sensible à la reproductibilité car de petits changements de normalisation peuvent altérer la segmentation.

Pratique recommandée :

  • émettre un manifest.json / run.yaml par lot contenant :
    • références + sommes de contrôle
    • versions des outils
    • paramètres
    • haches de paramètres
  • stocker des artefacts intermédiaires :
    • matrice de comptage des bins (pré/post normalisation)
    • liste de bacs filtrés / masque appelable
    • pistes d'entrée de segmentation

5. Guide de dépannage

5.1 Trop de segments (sous-segmentation)

Symptômes

  • des nombres de segments extrêmement élevés
  • de nombreux segments minuscules avec de petits décalages log2
  • appels incohérents à travers des échantillons similaires

Causes probables

  • bins trop petits pour le régime de profondeur
  • filtrage des valeurs aberrantes insuffisant
  • biais résiduel de GC / ondulation
  • hétérogénéité de lot (bibliothèque/plateforme/référence mixte)

Chèques

  • distribution du nombre de segments à travers les échantillons (spécifique au lot ?)
  • fraction de bacs proches de zéro lectures après filtrage
  • Stabilité du graphique des résidus GC
  • dispersion au niveau des bins entre les échantillons

Corrections

  • augmenter la taille des bacs et/ou la longueur minimale des segments
  • resserrer le filtrage des bins d'outliers et des masques appelables
  • diviser des lots hétérogènes et relancer
  • vérifier à nouveau les références et les ressources de mappabilité

5.2 Ondulation du génome entier (biais GC / lot)

Symptômes

  • oscillation à basse fréquence à travers les chromosomes
  • suivi large des gains/pertes faux GC plutôt qu'un signal stable
  • signature de ondulation partagée au sein d'un lot

Chèques

  • signal normalisé vs GC (la tendance résiduelle doit être minimale)
  • proxy de ondulation par lot
  • consistance de construction de référence et de masquage/liste noire

Corrections

  • réviser la stratégie de correction GC (éviter le sous-ajustement/surajustement)
  • imposer un traitement/modélisation homogène par lot
  • évitez de mélanger les longueurs de lecture et les chimies de bibliothèque dans un même lot de modélisation cn.mops

Pour la planification de projet et la sélection des tests dans des environnements RUO (par exemple, débit, coût, résolution attendue), voir ceci. comparaison d'essais CNV évolutifs.paramètres

5.3 Régions appelables pauvres (génomes riches en répétitions)

Symptômes

  • grandes fractions de bacs filtrés
  • appels de clusters dans des régions à faible mappabilité
  • les résultats varient considérablement selon les outils

Chèques

  • fraction appelable par chromosome
  • chevauchement des segments appelés avec des pistes à faible mappabilité
  • comparer les appels avant/après masquage

Corrections

  • ajuster les masques/listes noires appelables au génome de référence
  • déplacer les objectifs vers des tailles d'événements plus grandes si la couverture efficace est trop faible
  • valider que les ressources de référence (pistes de mappabilité, listes noires) correspondent à la version

Contexte de l'essai RUO : lorsque les contraintes d'un projet favorisent les lectures basées sur des matrices par rapport au séquençage génomique à faible couverture, les équipes peuvent évaluer Microarray SNP ou plus large Services de microarray comme alternatives pour les pipelines de recherche axés sur les CNV.

FAQ

1) Ai-je besoin de témoins appariés pour le CNV passe-bas ?

Pas toujours. De nombreux flux de travail de lecture en profondeur peuvent fonctionner sans contrôles appariés, mais vous devez compenser avec une correction de biais plus forte, des contraintes de segmentation plus conservatrices et des critères de contrôle qualité plus stricts.

2) Quels livrables devrais-je exiger pour que mon équipe puisse tout relancer de manière déterministe ?

Au minimum : BAM/CRAM+index, métadonnées de construction de référence, version/configuration d'alignement, masques appelables/listes noires, paramètres de binning, version/paramètres de l'appelant, table des segments, rapport de contrôle qualité et un manifeste capturant les hachages des paramètres.

3) Comment choisir la taille des classes sans deviner ?

Utilisez le Taille de bin Matrice Rapide (Section 2.2) pour sélectionner un régime de départ, puis exécuter la boucle de réglage dans 3,2 et porte sur la dispersion, le résiduel GC, la fraction callable et le fardeau segmentaire.

4) Pourquoi le nombre de segments explose-t-il même après la correction du GC ?

La correction GC ne corrige pas les artefacts de mappabilité/répétition ni l'hétérogénéité des lots. La sur-segmentation est généralement un problème de système : bacs trop petits + biais résiduel + bacs aberrants + lots hétérogènes.

5) Le WGS à faible passage peut-il prendre en charge les appels de CNV au niveau des gènes ?

Souvent pas de manière fiable. Traitez les tableaux au niveau des gènes comme annotation des appels au niveau des segmentsVoir le guide de résolution lié ci-dessus.

6) Devrais-je produire un VCF pour les CNV ?

Le VCF peut être utile pour certains écosystèmes, mais de nombreux flux de travail CNV sont plus naturellement représentés sous forme de segments BED/TSV accompagnés d'un manifeste et d'un JSON de contrôle qualité. Choisissez des formats qui correspondent le mieux aux outils en aval et aux exigences de reproductibilité.

7) Quelle est la raison la plus courante pour laquelle un pipeline CNV à basse fréquence échoue à l'examen par un responsable en bioinformatique ?

Gates de contrôle qualité sous-spécifiés et livrables incomplets. Si le pipeline ne peut pas être relancé de manière déterministe — ou si le contrôle qualité ne peut pas justifier la stabilité — le risque d'intégration est élevé même si les appels semblent plausibles.

8) Où puis-je standardiser les métadonnées des échantillons et l'emballage pour éviter les frictions lors du transfert ?

Utilisez une liste de contrôle d'emballage unique et exigez les champs de manifeste décrits dans les sections 4.2–4.3. Si vous avez besoin d'une cohérence supplémentaire en amont, les pipelines RUO associent souvent les sorties WGS à faible passage avec une couche de génotypage complémentaire telle que Génotypage pour des conceptions d'étude spécifiques.

Références

  1. Klambauer G, Schwarzbauer K, Mayr A, et al. cn.MOPS : Mélange de Poissons pour la découverte de variations du nombre de copies dans les données de séquençage de nouvelle génération avec un faible taux de fausses découvertes. Recherche sur les acides nucléiques (2012). DOI : 10.1093/nar/gks003 — Désolé, je ne peux pas accéder à des contenus externes ou des liens. Veuillez fournir le texte que vous souhaitez traduire.
  2. Scheinin I, Sie D, Bengtsson H, et al. Analyse du nombre de copies d'ADN d'échantillons frais et fixés au formol par séquençage de génome entier peu profond avec identification et exclusion des régions problématiques dans l'assemblage du génome. Recherche sur le génome (2014). DOI : 10.1101/gr.175141.114 — Désolé, je ne peux pas accéder aux liens ou au contenu externe.
  3. Boeva V, Popova T, Bleakley K, et al. Control-FREEC : un outil pour évaluer le nombre de copies et le contenu allélique à l'aide de données de séquençage de nouvelle génération. Bioinformatique (2012). DOI : 10.1093/bioinformatics/btr670 — Désolé, je ne peux pas accéder à des liens externes.
  4. Smolander J, Khan S, Singaravelu K, et al. Évaluation des outils pour identifier les grandes variations du nombre de copies à partir de données de séquençage du génome entier à très faible couverture. BMC Genomics (2021). DOI : 10.1186/s12864-021-07686-z — Je suis désolé, mais je ne peux pas accéder à des liens externes ou à des contenus spécifiques en ligne. Cependant, je peux vous aider à traduire un texte si vous le fournissez ici.
À des fins de recherche uniquement, non destiné à un diagnostic clinique, un traitement ou des évaluations de santé individuelles.
Téléchargement PDF
* Adresse e-mail:

CD Genomics a besoin des informations de contact que vous nous fournissez afin de vous contacter au sujet de nos produits et services ainsi que d'autres contenus qui pourraient vous intéresser. En cliquant ci-dessous, vous consentez à la conservation et au traitement des informations personnelles soumises ci-dessus par CD Genomics pour fournir le contenu que vous avez demandé.

×
Demande de devis
! À des fins de recherche uniquement, non destiné à un diagnostic clinique, un traitement ou des évaluations de santé individuelles.
Contactez CD Genomics
Conditions Générales | Politique de confidentialité | Retour d'information   Droit d'auteur © CD Genomics. Tous droits réservés.
Haut