Category: it

за штурвалом

Big Data

Один мой коллега рассказал о проводимом под его руководством проекте. Задача была - выяснить влияние определенного токсиканта на определенный морской беспозвоночный организм. Было решено подойти к вопросу основательно: ряд концентраций, разная длительность экспозиции, с десяток различных тканей, и разные стадии онтогенеза. В качестве метода использовали микроаррей - то есть анализировали около сотни различных генов. В итоге получили - белый шум. После многолетнего и очень мучительного разбирательства с использованием самых извращенных изощренных статистических методов было принято решение отбросить 90% данных - тогда стали видны очертания какой-то картины.
Вопрос - стоила ли игра свеч? Мы стараемся углубиться в поиски проблемы, но в итоге закапывамся все глубже. Да, мы не знаем, что найдем в итоге (то есть, мы предполагаем, что найдем никель, а находим медь), нам не хватает знаний о природе, мы не в состоянии переварить всю эту информацию, ведь за любым статистическим методом с применением супер-компьютера должен стоять супер-мозг, им руководящим. Все эти вопросы вплывают сейчас перед биологами в эпоху Big Data. Конечно, я не призываю отказаться от скрининговых инструмнтов и вернуться к основам. Даже наоборот - я являюсь ярым фанатом этого магического слова "Ом". Однако, очевидно, закидывать омные сети необходимо аккуратно, каждый раз вытаскивая по нескольку десятков-сотен рыбок, а не стараться выловить весь океан сразу  - и тут же разгадать все секреты океана.
Как вы считаете?