<div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;"> The tensor is stored in lower triangular order, i.e., Dxx, Dyx, Dyy,<br>
Dzx, Dzy, and Dzz.  I concated the images in xx, yy, zz, yx,zx, zy<br>
order, but now the image is flipped L-R, S-I, and A-P. Does mrconvert<br>
has the options for inverting axis directions, i.e. yx to xy, zx to<br>
xz, and zy to yz?<br></blockquote><div><br></div><div>try: mrconvert in.nii -coord 0 X:0 -coord 1 Y:0 -coord 2 Z:0 out.nii</div><div>where X, Y, and Z are the respective dimensions minus one. i.e. 127 for a 128 image.</div>
<div><br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
Also, &quot;csdeconv&quot;, and &quot;streamtrack&quot;  need the DWI but not DTI for the<br>
input. How can I perform tractography using the tensor images?<br></blockquote><div><br></div><div>Sorry, there&#39;s no option to do that. The tracking is done directly from the DWI so that the interpolation can be done on the raw images.</div>
<div> </div><div>Cheers,</div><div><br></div><div>Donald.</div><div><br></div><div><br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;"><div><div></div><div class="h5">
<br>
<br>
&gt; Hi Ping,<br>
&gt; It should be able to, but the order of the tensor elements would need to be<br>
&gt; changed. MRtrix assumes they are stored as xx, yy, zz, xy, xz, yx. You<br>
&gt; should be able to do this by using the -coord option of mrconvert, i.e.<br>
&gt; mrconvert original.nii -coord 3 0,3,5,1,2,4 final.nii, which means: for the<br>
&gt; 4th dimension (axis 3 starting from 0), take volumes 1,4,6,2,3,5 in that<br>
&gt; order. I think that order should work, you&#39;ll need to check that.<br>
&gt; There might be an issue if your 4D dataset is actually 5D, with the 4th axis<br>
&gt; having dimension 1. I think this is actually what the NIfTI standard states<br>
&gt; for storing the tensor  elements. If that&#39;s the case, things get a bit<br>
&gt; tricky, but this might work:<br>
&gt; $ mrconvert original.nii -coord 4 0,3,5,1,2,4 temp-[].mif<br>
&gt; $ mrcat temp-*.mif -axis 3 final.nii<br>
&gt; Cheers,<br>
&gt;<br>
&gt; Donald.<br>
&gt;<br>
&gt; On 12 February 2011 07:53, Ping-Hong Yeh &lt;<a href="mailto:pinghongyeh@gmail.com">pinghongyeh@gmail.com</a>&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt; Hi Donald,<br>
&gt;&gt;<br>
&gt;&gt; Can Mrtrix import a 4-D warped tensor file, ie. in xx, xy, xz ....in<br>
&gt;&gt; NIFTI format for processing? Thanks.<br>
&gt;&gt;<br>
&gt;&gt; Ping<br>
&gt;&gt;<br>
&gt;&gt; On Mon, Jan 17, 2011 at 2:35 AM, Donald Tournier<br>
&gt;&gt; &lt;<a href="mailto:d.tournier@brain.org.au">d.tournier@brain.org.au</a>&gt; wrote:<br>
&gt;&gt; &gt; Hi Ping,<br>
&gt;&gt; &gt; OK, since you supply your own gradient encoding, you need to be able to<br>
&gt;&gt; &gt; supply it with respect to scanner coordinates. In other words, if the<br>
&gt;&gt; &gt; data<br>
&gt;&gt; &gt; were not acquired in a straight axial plane, that rotation needs to be<br>
&gt;&gt; &gt; accounted for. I guess there are two options: you can either discard the<br>
&gt;&gt; &gt; transform altogether (for example by using the ANALYSE format), or<br>
&gt;&gt; &gt; modify<br>
&gt;&gt; &gt; your encoding according to the rotation part of the image transform (the<br>
&gt;&gt; &gt; top<br>
&gt;&gt; &gt; left 3x3 part of the transformation matrix). I&#39;m guessing it&#39;s easiest<br>
&gt;&gt; &gt; for<br>
&gt;&gt; &gt; you to simply use ANALYSE, unless you actually need to keep the images<br>
&gt;&gt; &gt; in<br>
&gt;&gt; &gt; scanner coordinates.<br>
&gt;&gt; &gt; Otherwise, I&#39;ll add a note to my (lengthy) TODO list to add an extra<br>
&gt;&gt; &gt; option<br>
&gt;&gt; &gt; to specify that the DW directions are defined with respect to the image<br>
&gt;&gt; &gt; axes, which should help sort out this type of issue. I don&#39;t expect<br>
&gt;&gt; &gt; that&#39;ll<br>
&gt;&gt; &gt; happen for some time though...<br>
&gt;&gt; &gt; Cheers,<br>
&gt;&gt; &gt; Donald.<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; On 16 January 2011 01:58, Ping-Hong Yeh &lt;<a href="mailto:pinghongyeh@gmail.com">pinghongyeh@gmail.com</a>&gt; wrote:<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; Hi Donald,<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; Our DICOM header has wrong gradient table because we added several b0<br>
&gt;&gt; &gt;&gt; images inbetween but the sequence output  the original diffusion<br>
&gt;&gt; &gt;&gt; gradient directions used by the GE vendor. For this reason, I need to<br>
&gt;&gt; &gt;&gt; use the &quot;-grad&quot; flag for specifying correct gradient table in the<br>
&gt;&gt; &gt;&gt; commands.<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; Here is waht I did,<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; mrconvert J:\Data\DTI\DICOM\NCNC0017 dwi.mif<br>
&gt;&gt; &gt;&gt; dwi2tensor dwi.mif -grad J:\Data\DTI\bvecs_mrtrix_55_orig_bvec.txt<br>
&gt;&gt; &gt;&gt; dt_mrtrix_orig.mif<br>
&gt;&gt; &gt;&gt; tensor2FA dt_mrtrix_orig.mif fa_mrtrix_orig.mif<br>
&gt;&gt; &gt;&gt; tensor2FA dt_mrtrix_orig.mif - | mrmult - b0mask.nii<br>
&gt;&gt; &gt;&gt; fa_mrtrix_brain_orig.mif<br>
&gt;&gt; &gt;&gt; tensor2vector dt_mrtrix_orig.mif - | mrmult - fa_mrtrix_orig.mif<br>
&gt;&gt; &gt;&gt; ev_orig.mif<br>
&gt;&gt; &gt;&gt; erode b0mask.nii  - | erode - - | mrmult fa_mrtrix_orig.mif - - |<br>
&gt;&gt; &gt;&gt; threshold - -abs 0.6 sf_orig.mif<br>
&gt;&gt; &gt;&gt; estimate_response dwi.mif sf_orig.mif -lmax 6 -grad<br>
&gt;&gt; &gt;&gt; J:\Data\DTI\bvecs_mrtrix_55_orig_bvec.txt response_lmax6_orig.txt<br>
&gt;&gt; &gt;&gt; -info<br>
&gt;&gt; &gt;&gt; csdeconv dwi.mif response_lmax6_orig.txt -lmax 6 -mask b0mask.nii<br>
&gt;&gt; &gt;&gt; -grad J:\Data\DTI\bvecs_mrtrix_55_orig_bvec.txt CSD6_orig.mif<br>
&gt;&gt; &gt;&gt; gen_WM_mask dwi.mif -grad J:\Data\DTI\bvecs_mrtrix_55_orig_bvec.txt<br>
&gt;&gt; &gt;&gt; b0mask.nii wm_orig.mif<br>
&gt;&gt; &gt;&gt; threshold wm_orig.mif -percent 0.01 wm_mask_orig.nii<br>
&gt;&gt; &gt;&gt; streamtrack SD_PROB CSD6_orig.mif -seed wm_orig.mif  -mask<br>
&gt;&gt; &gt;&gt; wm_mask_orig.nii  -number 500000 wmtracks_sdprob_csd6_500000_orig.tck<br>
&gt;&gt; &gt;&gt; tracks2prob wmtracks_sdprob_csd6_500000_orig.tck  -template dwi.mif<br>
&gt;&gt; &gt;&gt; -vox 0.5 -fraction wmtrack_sdprob_csd6_500000frac_vox0.5_orig.nii<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; Thank you,<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; Ping<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; On Fri, Jan 14, 2011 at 8:45 PM, Donald Tournier<br>
&gt;&gt; &gt;&gt; &lt;<a href="mailto:d.tournier@brain.org.au">d.tournier@brain.org.au</a>&gt; wrote:<br>
&gt;&gt; &gt;&gt; &gt; Hi Ping,<br>
&gt;&gt; &gt;&gt; &gt; Sounds strange. Not sure I can really help without more detailed<br>
&gt;&gt; &gt;&gt; &gt; information. Could you send me the transcript of the commands that<br>
&gt;&gt; &gt;&gt; &gt; you<br>
&gt;&gt; &gt;&gt; &gt; typed, from start to finish? Maybe I can spot where things may have<br>
&gt;&gt; &gt;&gt; &gt; gone<br>
&gt;&gt; &gt;&gt; &gt; funny...<br>
&gt;&gt; &gt;&gt; &gt; Cheers,<br>
&gt;&gt; &gt;&gt; &gt; Donald.<br>
&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; On 15 January 2011 03:27, Ping-Hong Yeh &lt;<a href="mailto:pinghongyeh@gmail.com">pinghongyeh@gmail.com</a>&gt;<br>
&gt;&gt; &gt;&gt; &gt; wrote:<br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; Hi Donald,<br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt;  Thank you again for the reply.<br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; The reason using the NIFTI instead of DICOM is because we would like<br>
&gt;&gt; &gt;&gt; &gt;&gt; to correct EPI distortion using fieldmap beforehand.<br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; Anyhow, I also input the DICOM files using mrconvert and the result<br>
&gt;&gt; &gt;&gt; &gt;&gt; of<br>
&gt;&gt; &gt;&gt; &gt;&gt; TDI image is similar to the one using NIFTI as the input. I still<br>
&gt;&gt; &gt;&gt; &gt;&gt; think the TDI using ANLYZE one looks right, but do not understand<br>
&gt;&gt; &gt;&gt; &gt;&gt; why<br>
&gt;&gt; &gt;&gt; &gt;&gt; there is such a huge difference.<br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; Any further comment? Thanks.<br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; Ping<br>
&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; On Thu, Jan 13, 2011 at 2:35 AM, Donald Tournier<br>
&gt;&gt; &gt;&gt; &gt;&gt; &lt;<a href="mailto:d.tournier@brain.org.au">d.tournier@brain.org.au</a>&gt; wrote:<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; Hi Ping,<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; I&#39;m guessing your issues are due to the fact that ANALYZE does not<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; store<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; the<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; transformation matrix (i.e. the directions of the axes and<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; location<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; of<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; the<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; origin with respect to real/scanner space), whereas NIfTI does.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; This<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; is<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; one<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; of the reasons I urge everyone to stay well away from ANALYZE<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; format<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; images<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; (the other being that left/right ordering is ill-defined).<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; If you convert a NIfTI image with a proper transformation matrix<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; to<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; ANALYZE,<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; that information is lost. I guess the overlay function in FSLView<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; operates<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; on a voxel-by-voxel basis - i.e. that the transformation<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; information<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; is<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; ignored, and only voxel coordinates within the imaging volume are<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; taken<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; into<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; account. This is not the case for MRtrix: each voxel is displayed<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; in<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; the<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; correct location, according both to its voxel coordinate within<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; the<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; imaging<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; volume, and the transformation information. Note that with ANALYZE<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; images,<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; MRtrix will insert a default identity transform (no rotation,<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; origin<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; in<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; the<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; middle of the dataset). That should explain the mismatch in the<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; overlay.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; If<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; you want to double-check this, use &#39;mrinfo&#39; on both images, and<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; see<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; if<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; the<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; transforms differ.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; On the other hand, I have no idea why the TDI maps are so<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; different.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; I&#39;m<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; assuming you have to supply your own gradient encoding, and that<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; you&#39;re<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; using the same encoding file in both cases? Other than strange<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; effects<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; due<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; to different gradient encodings, I have no idea what the issue<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; might<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; be.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; One<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; possibility is that you&#39;re using a gradient table suitable for<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; analysis<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; using FSL, where the gradient directions are supplied with respect<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; to<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; the<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; image axes. Since MRtrix assumes that they are supplied with<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; respect<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; to<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; real/scanner space, if there is a significant rotation component<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; in<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; the<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; transformation, the tracking will be affected. Might explain why<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; the<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; tracking is OK with ANALYZE (the transform has been discarded - no<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; rotation)<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; but not with NIfTI. Although there doesn&#39;t seem to be a huge<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; rotation<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; between them judging from your screenshot...<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; On a final note, if you have access to the DICOM data, why not use<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; MRtrix to<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; do the conversion for you? If you convert to MRtrix image format<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; (.mif),<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; you<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; will have the correct transform information, the DW gradient table<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; will<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; be<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; inserted in the header, and you shouldn&#39;t have any problems of<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; this<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; kind.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; Hope that sort things out for you.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; Cheers,<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; Donald.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; On 12 January 2011 15:24, Ping-Hong Yeh &lt;<a href="mailto:pinghongyeh@gmail.com">pinghongyeh@gmail.com</a>&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; wrote:<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; Hi Donald,<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;  Thank you for the detailed explanation.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; Another question about the input data format.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; First, I have the same DWI data saved as NIFTI or ANALYZE. The<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;  NIFTI<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; was converted from DICOM originally using dcm2nii and then to<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; ANALYZE<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; using FSL fslchfiletype. Both images are aligned well while<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; viewing<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; using FSLview (see attached  Screenshot_fslview.png); but there<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; is a<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; significant translation while viewing using mrview<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; (mrview_screen.jpg).<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; I then processed both data and created the whole brain TDI<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; images,<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; but<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; the results are quite different (see tdi_analyze.jpg and<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; tdi_nifti.jpg).  It appear the TDI image by using ANALYZE is what<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; TDI<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; is supposed to be looked like although now it does not align with<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; original NIFTI data, which has made the previous co-registration<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; matrices useless.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; Thank you,<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; Ping<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; On Mon, Jan 10, 2011 at 8:14 AM, Donald Tournier<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &lt;<a href="mailto:d.tournier@brain.org.au">d.tournier@brain.org.au</a>&gt; wrote:<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; Hi Ping,<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; Unfortunately, the &#39;normalise_tracks&#39; command can&#39;t be used to<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; apply<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; a<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; 4x4<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; affine transform: it&#39;s designed to apply a non-linear warp to<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; the<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; track<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; data. The warp information should be supplied as a 4D image,<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; where<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; the<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; values for each voxel are set to the coordinates that this<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; voxel<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; maps<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; to. To<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; help generate the warp, there is a utility called<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; &#39;gen_unit_warp&#39;,<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; which<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; will generate a &#39;no warp&#39; image (i.e. each voxel contains its<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; own<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; location),<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; to which you can apply the relevant inverse warp using whatever<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; software<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; package you use for your normalisation (FSL, SPM, etc). You can<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; then<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; feed<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; the result to &#39;normalise_tracks&#39; as the transform image.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; Getting the details can be quite tricky, so here is an example<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; using<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; SPM8,<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; using the warp computed by normalising a T1 image (anat.nii)<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; previously<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; coregistered with the FA:<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; Assuming you are normlising to the default T1<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; template image (T1.nii)<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; supplied with SPM8, start by generating a unit warp image using<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; that<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; as<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; a<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; template:<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; $ gen_unit_warp /opt/SPM8/templates/T1.nii warp-[].nii<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; Note that the output image has been specified as a multi-file<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; NIfTI,<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; so<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; this<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; should produce the files warp-1.nii, warp-2.nii &amp; warp-3.nii.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; Then estimate the warp you&#39;re interested in applying. In SPM8,<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; select<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; SPM-&gt;Spatial-&gt;Normalise-&gt;Estimate in the batch editor, specify<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; the<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; anat.nii<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; as the source image, and T1.nii as the template, and run. This<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; will<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; generate<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; the warp information as a &quot;anat_sn.mat&quot; file.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; Then, apply the inverse warp to your warp-*.nii images: select<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; SPM-&gt;Util-&gt;Deformations in the batch editor, choose &quot;New:<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; inverse&quot;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; as<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; the<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; composition, then &quot;New: Imported _sn.mat&quot; as its composition,<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; &quot;anat_sn.mat&quot;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; as the parameter file, and your fa.nii as the &quot;image to base<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; inverse<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; on&quot;.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; Specify all 3 wrap-*.nii in the &quot;apply to&quot; field, and run.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; This should generate 3 new files: wwarp-*.nii, which can be<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; used<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; directly in<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; &quot;normalise_tracks&quot;:<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; $ normalise_tracks tracks.tck wwarp-[].nii<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; tracks_normalised.tck<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; Obviously the steps would be very different depending on the<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; normalisation<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; package you&#39;re using, but the idea would be the same.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; Hope that clarifies things a little.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; Cheers,<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; Donald.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; On 7 January 2011 15:47, Ping-Hong Yeh &lt;<a href="mailto:pinghongyeh@gmail.com">pinghongyeh@gmail.com</a>&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; wrote:<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; Hello all,<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;  I would like to transforming the tracks to the template<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; space,<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; but<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; not sure how to apply the transformation matrix (4 by4 Ascii)<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; using<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &quot;normalise_tracks&quot;.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; How should the normalisation map be created?   Thanks.<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; Ping<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; _______________________________________________<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; Mrtrix-discussion mailing list<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; <a href="mailto:Mrtrix-discussion@www.nitrc.org">Mrtrix-discussion@www.nitrc.org</a><br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; <a href="http://www.nitrc.org/mailman/listinfo/mrtrix-discussion" target="_blank">http://www.nitrc.org/mailman/listinfo/mrtrix-discussion</a><br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; --<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; Jacques-Donald Tournier (PhD)<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; Brain Research Institute, Melbourne, Australia<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; Tel: +61 (0)3 9496 4078<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; --<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; Jacques-Donald Tournier (PhD)<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; Brain Research Institute, Melbourne, Australia<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt; Tel: +61 (0)3 9496 4078<br>
&gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;&gt; &gt; --<br>
&gt;&gt; &gt;&gt; &gt; Jacques-Donald Tournier (PhD)<br>
&gt;&gt; &gt;&gt; &gt; Brain Research Institute, Melbourne, Australia<br>
&gt;&gt; &gt;&gt; &gt; Tel: +61 (0)3 9496 4078<br>
&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; --<br>
&gt;&gt; &gt; Jacques-Donald Tournier (PhD)<br>
&gt;&gt; &gt; Brain Research Institute, Melbourne, Australia<br>
&gt;&gt; &gt; Tel: +61 (0)3 9496 4078<br>
&gt;&gt; &gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; --<br>
&gt; Jacques-Donald Tournier (PhD)<br>
&gt; Brain Research Institute, Melbourne, Australia<br>
&gt; Tel: +61 (0)3 9496 4078<br>
&gt;<br>
</div></div></blockquote></div><br><br clear="all"><br>-- <br>Jacques-Donald Tournier (PhD)<br>Brain Research Institute, Melbourne, Australia<br>Tel: +61 (0)3 9496 4078<br>