Modificar el genoma de una planta significa trabajar in vitro con células vegetales que deberán haber sido preparadas y cultivadas, y después haber recibido el material capaz de generar la (o las) modificación(es) genética(s) deseada(s).
Seleccionar y regenerar las células "modificadas" tiene también otros efectos
Debido a su baja, más bien muy baja, eficacia de transformación [2], las técnicas de modificación genética hacen necesaria la selección de las células que efectivamente han sido modificadas. Esta selección se lleva a cabo utilizando marcadores que permiten diferenciar las células : genes de resistencia a antibióticos o herbicidas (las células se someten por tanto a un baño de antibióticos o herbicidas y sólo aquellas realmente modificadas pueden sobrevivir), un gen que permite el crecimiento de la célula en presencia de una molécula normalmente tóxica, o un gen que permite a las células utilizar una fuente de carbono normalmente no metabolizable... u otro marcador que se mantendrá o eliminará más adelante [3]. Sin embargo, la supresión de estos marcadores de selección se lleva a cabo mediante técnicas más o menos fiables y precisas y que pueden, por tanto, inducir toxicidad celular y otras reordenaciones cromosómicas [4], dejar huellas [5] y producir sitios de recombinación (lugares de intercambio de secuencias genéticas entre dos hebras de ADN) con efectos no previsibles [6]. Estas técnicas no son necesariamente posibles en todas las especies vegetales.
A partir de las células seleccionadas deberán regenerarse las plantas. Esto requiere una nueva etapa de cultivo celular, que necesita de la utilización de distintas hormonas de síntesis, y que podrá inducir nuevas mutaciones y epimutaciones con reordenaciones o no de los cromosomas [7].
Ya sea en la etapa de modificación genética en sí, en las etapas previas o en las etapas posteriores, todas ellas inducen mutaciones o epimutaciones, denominadas efectos off-target. Sin embargo, habitualmente escuchamos que finalmente estas mutaciones no estarán presentes en la planta comercializada. ¿La razón ? La etapa siguiente, denominada retrocruzamiento, permitirá deshacerse de todos estos efectos no intencionados...
La teoría del retrocruzamiento
Recordemos el principio general : una empresa que desea poner en el mercado una variedad modificada genéticamente (ya sea legalmente considerada como OMG o no) no modificará directamente el genoma de una de las variedades "de élite", sino una variedad más común. Una vez obtenida esta modificación, la empresa cruzará una primera vez la variedad común modificada genéticamente con la variedad de élite comercialmente interesante. A continuación cruzará de nuevo a los descendientes con la variedad de élite inicial, hasta que sus descendientes sean considerados (a partir de un análisis estadístico) casi iguales (hablamos de variedades quasi-isogénicas o de segregantes negativos) a la variedad de élite. La diferencia entre la variedad de élite y la nueva variedad se supone que es únicamente la secuencia modificada. El GNIS explica por tanto que, en el último cruzamiento, "la parte [del genoma que procede] de la línea de élite es del 96,88%, y por tanto estimamos que la línea obtenida es lo suficientemente cercana a la línea de élite. Tendemos a la obtención de una línea isogénica, que tan sólo se diferencie de la línea de élite en un gen [el que contiene la modificación]" [8]. Queremos señalar aquí que un porcentaje del 96,88% sigue dejando bastante espacio para las mutaciones, epimutaciones y reordenaciones potenciales en ciertas plantas cultivadas en las que el genoma es bastante grande, como es el caso del trigo : con unos 17 mil millones de pares de bases, el 3,12% restante sigue representando más de 500 millones de pares de bases...
Los límites de la teoría
La teoría subyacente a la "limpieza" de los efectos off-target gracias al retrocruzamiento se fundamenta en la siguiente hipótesis : los efectos no intencionados aparecidos en las etapas anteriores están lo suficientemente alejados de la región en la que ha tenido lugar la modificación genética deseada. En efecto, cuanto más cercanos estén estos efectos en sitios no-diana, mayor es la probabilidad de que los efectos no deseados se transmitan junto con la modificación genética en cada cruzamiento. Con un número mínimo de siete, el número de cruzamientos necesarios podría llegar hasta los catorce para intentar deshacerse de ellas.
Sin embargo, además de este problema de proximidad de los sitios no-diana modificados con la secuencia genética modificada, la confianza que podemos tener en esta teoría se ve asimismo relativizada por otros dos fenómenos biológicos. Por una parte, las secuencias genéticas pueden existir y evolucionar en bloques más o menos importantes. Estos bloques se transmiten a la descendencia, de forma que los efectos en sitios no diana contenidos en estos bloques permanecerán con la secuencia genética modificada en cada cruzamiento. Por otra parte, ciertas secuencias genéticas tienen la capacidad de "imponerse" en la formación de los gametos. Denominadas "egoístas", estas secuencias estarán contenidas en un número mayor de gametos de lo esperado, generación tran generación, y estarán siempre presentes en la descendencia. Si los efectos no-diana aparecieran en estas secuencias, será más difícil deshacerse de ellos [9].
Estos elementos implican por tanto que sería necesaria una verificación caso por caso. En el momento actual, sólo la legislación relativa a plantas transgénicas requiere una verificación de este tipo caso por caso, con el conjunto de análisis más completo que hay (aunque recordamos que aun así tiene deficiencias). En efecto, la secuenciación del genoma no permite responder a la cuestión de la presencia o no de efectos no-diana debido a los límites inherentes a este tipo de análisis (ver sección siguiente).
En estos dos artículos hemos recordado las mutaciones y epimutaciones que constituyen los efectos no intencionados de estas biotecnologías modernas. Hemos observado también que pretender detectar y eliminar todos los efectos no intencionados de las nuevas técnicas supone más un acto de fe que de ciencia establecida. En general, frente a esta constatación de los posibles efectos, de los límites del retrocruzamiento y de los de la secuenciación, resulta razonable dudar de la capacidad de los seleccionadores a la hora de eliminar todos los efectos en sitios no diana y de detectar eficaz y rápidamente las mutaciones y epimutaciones restantes mediante la secuenciación. Nos sorprende por tanto el silencio del Comité científico del Alto Consejo de Biotecnología francés (HCB) respecto a todos estos puntos en su primer informe publicado en febrero de 2016 sobre los impactos relacionados con las nuevas técnicas de modificación genética.
La secuenciación y las herramientas informáticas asociadas, ¡de todo menos certeza !
El 7 de abril, tras la audición organizada por la Oficina parlamentaria para la evaluación de opciones científicas y técnicas (OPECST), André Choulika, Presidente Director General de Cellectis, afirmaba respecto a los efectos en sitios no diana "volver a secuenciar integralmente [el genoma de las plantas] es realmente importante [...] porque en la aprobación se exige la secuencia integral". Sólo que, vistos más de cerca, los resultados de la secuenciación obtenidos están lejos de tener una fiabilidad absoluta.
La secuenciación denominada de "nueva generación" es a día de hoy relativamente barata y rápida. Pero hay varios "problemas" que emborronan su utilización, la lectura y la utilización de los resultados.
Para empezar, varias etapas de la secuenciación en sí "parasitan" la fiabilidad del resultado final. Los pasos requeridos son : extraer el ADN, cortarlo en partes y secuenciarlos, con ayuda de distintas plataformas y métodos. Ahora bien, estas plataformas y métodos son bastante diferentes unos de otros, tanto en términos de límites como de fiabilidad de resultados [10].
A continuación es preciso leer los resultados intentando recolocar extremo con extremo las secuencias leídas, para reconstituir el genoma completo. Después, las secuencias obtenidas se comparan con otras consideradas "de referencia" y almacenadas en bases de datos que contienen ya errores de por sí [11].
Todas estas etapas introducen una importante imprecisión en los resultados finales de detección de efectos no intencionados y por tanto de la evaluación de riesgos, y la incertidumbre respecto a las secuencias aumenta con genomas poliploides o con numerosas secuencias repetidas [12]. Esto sin tener en cuenta que las mutaciones identificadas podrían no tener la misma importancia biológica [13]...
Numerosos artículos resumen las dificultades encontradas en cada etapa, comparan los métodos y plataformas [14], así como el software asociado [15], discuten las normas de referencia ("gold standards") y las normas a utilizar para que el proceso en su conjunto resulte fiable [16]. En resumen, como subrayan estos autores, tantas técnicas y etapas que aún están por mejorarse y que no han alcanzado la madurez necesitan, por tanto, varias verificaciones para las evaluaciones caso por caso.
Según varios investigadores, saber hacer frente a la acumulación de un gran número de datos (los famosos "big data") algunos de los cuales contienen múltiples errores, y utilizarlos con rigor es uno de los desafíos de la biología molecular actual. En cualquier caso, ante el escepticismo planteado frente a cualquier resultado de la secuenciación, las exigencias mínimas de los revisores de artículos científicos son tales que cada vez más los investigadores se están viendo obligados a presentar resultados de secuenciaciones de secuencias más largas para poder asegurar la fiabilidad de sus datos brutos [17].
Traducción : Observatorio OGM de Ecologistas en Acción