我是一名统计学家,我想要一些关于如何建立一个可以将数据收集到数据库中的网站的建议。对于个人用途,我使用 Google Forms 收集数据,然后将所有内容填充到电子表格中。但是,这在更专业的环境中可能不合适,尤其是当我们有多个页面/表单时。我想有两种用途:
- 我可以将链接发送给其他人以便他们填写的网站,类似于 Google 表单。
- 只有授权用户才能登录填写数据的网站。想想在研究中定期跟踪患者的环境。让临床医生在填写表格时将数据直接输入数据库会很酷,而不是让另一个数据分析师将他的书面表格转录到数据库中。
显而易见的解决方案是聘请 Web 开发人员。但是,我喜欢在可控的情况下自己做事。我想 Web 开发人员必须了解 html、php 和数据库知识(例如 MySQL 或 PostgreSQL)。我在这些方面的经验仅限于在我的 linux 服务器上建立一个 wordpress 博客。我使用 html 的经验也很有限,因为我使用 emacs org-mode 从纯文本生成它们。我希望听到有关具有最小学习曲线的解决方案。我当然更喜欢免费的开源软件和基于 Linux 的软件,但我想听听所有可用的解决方案(我们的数据管理员是 Windows 用户)。
我最近在 Linux Journal 上阅读了一篇提到REDCap的帖子,但似乎您必须获得机构许可才能使用。
我还在这篇文章上标记了“R”,因为我想听听 R 用户在数据收集方面做了什么。我最终会用 R 分析数据,但所有的数据分析都是从科学问题和数据收集开始的。
谢谢!
2010 年 10 月 4 日更新:感谢大家到目前为止的回复。到目前为止,大多数第三方解决方案似乎都将数据保存在供应商托管的数据库中。我想将所有数据都存放在我们的 SQL Server 中。即来自网络的数据输入实时进入数据库,为数据分析做好准备。