El reduccionismo investiga el todo examinando cada una de las partes más de cerca. Una vez que tengamos suficiente información útil sobre las partes, debemos pasar a explorar cómo interactúan entre sí; esto a veces se llama holismo o biología de sistemas. (Pido disculpas de antemano por cualquier juicio de valor implícito en la nomenclatura existente …)
Hacemos el cambio cuando sentimos que hay suficiente información disponible: desafortunadamente, nuestra intuición es nuestro enemigo, diciéndonos que si no solo “entendemos” cómo funciona el sistema, entonces necesitamos más datos. La aplicación de enfoques computacionales o analíticos puede dar una idea de cómo funciona el sistema con mucha menos información de la que requeriría nuestra cognición.
Ejemplo: el laboratorio de Mike Laub ha estudiado sistemas de dos componentes, en los que un receptor de la superficie celular se une y activa a los compañeros de señalización aguas abajo. Esta vía de señalización se ha duplicado y divergido muchas veces para que una especie dada pueda tener docenas de receptores y socios aguas abajo que están todos relacionados evolutivamente (por lo tanto, en secuencia similar). Existe una presión evolutiva para que estas proteínas cambien la secuencia al menos lo suficiente como para evitar la unión no deseada que conduciría a la diafonía entre las vías. El laboratorio de Laub quería entender cómo se logra la especificidad lo suficientemente bien como para poder rediseñar racionalmente las vías de señalización.
- ¿Qué es un momento dipolar molecular?
- ¿Qué significa cuando una cadena de ADN es complementaria?
- ¿Cómo traducir esta secuencia de ADN: ATG ATC TCG AAG GGT GCA? Encontré un codón de parada en el medio de la secuencia. Esta bien
- Bioinformática: ¿Cuáles son algunas de las inferencias interesantes que uno puede hacer con ncbi BLAST?
- ¿Qué tan útil es FRET para caracterizar el interactoma?
Se podría tratar de abordar este problema examinando la estructura de cada par (uso intensivo de recursos) e intentando intuir los patrones (sobrecarga de información). En cambio, utilizaron un enfoque computacional para determinar qué residuos en dos proteínas tienden a cambiar juntos durante el curso de la evolución (artículo). El método solo requería información de secuencia y, de lo contrario, estaba automatizado y funcionaba lo suficientemente bien como para que pudieran volver a cablear las vías de señalización con algunas mutaciones específicas. En otras palabras, reconocieron correctamente que era hora de dejar de invertir energía en la recopilación de nueva información sobre cada par de proteínas de señalización, y comenzar a invertir energía en la interpretación del conjunto.
La técnica que usaron se había descrito unos años antes, en un contexto similar (Atchley 2000). Supongo que los datos de secuenciación también ya existían (aunque seguramente se requirió cierta curación). La moraleja es que ya existe mucha información significativa que está esperando a la persona que intentará interpretarla. Para ser esa persona, debe estar al tanto de los métodos que ofrecen las matemáticas y la bioinformática aplicadas, y desarrollar suficiente experiencia en matemática y programación que pueda emplear cuando llegue el momento. Lo más importante es que siempre debe preguntarse si más experimentos son realmente necesarios para la comprensión, o simplemente trabajo ocupado / el camino de menor resistencia.
También hizo preguntas muy específicas sobre la Expedición Global de Muestreo Oceánico. Sé muy poco al respecto, pero no parece haber sido un triunfo de la minería de datos. Sin embargo, hay casos similares en los que el estudio de las correlaciones en la abundancia relativa de especies dentro de las comunidades microbianas ha revelado interdependencias o insinuado roles funcionales en los ecosistemas. Vea el trabajo del Laboratorio de Dutton en el desarrollo de la corteza de queso para obtener un ejemplo accesible.